questions
stringlengths 4
1.65k
| answers
stringlengths 1.73k
353k
| site
stringclasses 24
values | answers_cleaned
stringlengths 1.73k
353k
|
---|---|---|---|
ckad excersises kubernetes io Documentation Tasks Access Applications in a Cluster using API kubernetes io Documentation Tasks Access Applications in a Cluster kubernetes io Documentation Reference kubectl CLI Core Concepts 13 kubernetes io Documentation Tasks Monitoring Logging and Debugging | ![](https://gaforgithub.azurewebsites.net/api?repo=CKAD-exercises/core_concepts&empty)
# Core Concepts (13%)
kubernetes.io > Documentation > Reference > kubectl CLI > [kubectl Cheat Sheet](https://kubernetes.io/docs/reference/kubectl/cheatsheet/)
kubernetes.io > Documentation > Tasks > Monitoring, Logging, and Debugging > [Get a Shell to a Running Container](https://kubernetes.io/docs/tasks/debug-application-cluster/get-shell-running-container/)
kubernetes.io > Documentation > Tasks > Access Applications in a Cluster > [Configure Access to Multiple Clusters](https://kubernetes.io/docs/tasks/access-application-cluster/configure-access-multiple-clusters/)
kubernetes.io > Documentation > Tasks > Access Applications in a Cluster > [Accessing Clusters](https://kubernetes.io/docs/tasks/access-application-cluster/access-cluster/) using API
kubernetes.io > Documentation > Tasks > Access Applications in a Cluster > [Use Port Forwarding to Access Applications in a Cluster](https://kubernetes.io/docs/tasks/access-application-cluster/port-forward-access-application-cluster/)
### Create a namespace called 'mynamespace' and a pod with image nginx called nginx on this namespace
<details><summary>show</summary>
<p>
```bash
kubectl create namespace mynamespace
kubectl run nginx --image=nginx --restart=Never -n mynamespace
```
</p>
</details>
### Create the pod that was just described using YAML
<details><summary>show</summary>
<p>
Easily generate YAML with:
```bash
kubectl run nginx --image=nginx --restart=Never --dry-run=client -n mynamespace -o yaml > pod.yaml
```
```bash
cat pod.yaml
```
```yaml
apiVersion: v1
kind: Pod
metadata:
creationTimestamp: null
labels:
run: nginx
name: nginx
namespace: mynamespace
spec:
containers:
- image: nginx
imagePullPolicy: IfNotPresent
name: nginx
resources: {}
dnsPolicy: ClusterFirst
restartPolicy: Never
status: {}
```
```bash
kubectl create -f pod.yaml
```
Alternatively, you can run in one line
```bash
kubectl run nginx --image=nginx --restart=Never --dry-run=client -o yaml | kubectl create -n mynamespace -f -
```
</p>
</details>
### Create a busybox pod (using kubectl command) that runs the command "env". Run it and see the output
<details><summary>show</summary>
<p>
```bash
kubectl run busybox --image=busybox --command --restart=Never -it --rm -- env # -it will help in seeing the output, --rm will immediately delete the pod after it exits
# or, just run it without -it
kubectl run busybox --image=busybox --command --restart=Never -- env
# and then, check its logs
kubectl logs busybox
```
</p>
</details>
### Create a busybox pod (using YAML) that runs the command "env". Run it and see the output
<details><summary>show</summary>
<p>
```bash
# create a YAML template with this command
kubectl run busybox --image=busybox --restart=Never --dry-run=client -o yaml --command -- env > envpod.yaml
# see it
cat envpod.yaml
```
```YAML
apiVersion: v1
kind: Pod
metadata:
creationTimestamp: null
labels:
run: busybox
name: busybox
spec:
containers:
- command:
- env
image: busybox
name: busybox
resources: {}
dnsPolicy: ClusterFirst
restartPolicy: Never
status: {}
```
```bash
# apply it and then see the logs
kubectl apply -f envpod.yaml
kubectl logs busybox
```
</p>
</details>
### Get the YAML for a new namespace called 'myns' without creating it
<details><summary>show</summary>
<p>
```bash
kubectl create namespace myns -o yaml --dry-run=client
```
</p>
</details>
### Create the YAML for a new ResourceQuota called 'myrq' with hard limits of 1 CPU, 1G memory and 2 pods without creating it
<details><summary>show</summary>
<p>
```bash
kubectl create quota myrq --hard=cpu=1,memory=1G,pods=2 --dry-run=client -o yaml
```
</p>
</details>
### Get pods on all namespaces
<details><summary>show</summary>
<p>
```bash
kubectl get po --all-namespaces
```
Alternatively
```bash
kubectl get po -A
```
</p>
</details>
### Create a pod with image nginx called nginx and expose traffic on port 80
<details><summary>show</summary>
<p>
```bash
kubectl run nginx --image=nginx --restart=Never --port=80
```
</p>
</details>
### Change pod's image to nginx:1.24.0. Observe that the container will be restarted as soon as the image gets pulled
<details><summary>show</summary>
<p>
*Note*: The `RESTARTS` column should contain 0 initially (ideally - it could be any number)
```bash
# kubectl set image POD/POD_NAME CONTAINER_NAME=IMAGE_NAME:TAG
kubectl set image pod/nginx nginx=nginx:1.24.0
kubectl describe po nginx # you will see an event 'Container will be killed and recreated'
kubectl get po nginx -w # watch it
```
*Note*: some time after changing the image, you should see that the value in the `RESTARTS` column has been increased by 1, because the container has been restarted, as stated in the events shown at the bottom of the `kubectl describe pod` command:
```
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
[...]
Normal Killing 100s kubelet, node3 Container pod1 definition changed, will be restarted
Normal Pulling 100s kubelet, node3 Pulling image "nginx:1.24.0"
Normal Pulled 41s kubelet, node3 Successfully pulled image "nginx:1.24.0"
Normal Created 36s (x2 over 9m43s) kubelet, node3 Created container pod1
Normal Started 36s (x2 over 9m43s) kubelet, node3 Started container pod1
```
*Note*: you can check pod's image by running
```bash
kubectl get po nginx -o jsonpath='{.spec.containers[].image}{"\n"}'
```
</p>
</details>
### Get nginx pod's ip created in previous step, use a temp busybox image to wget its '/'
<details><summary>show</summary>
<p>
```bash
kubectl get po -o wide # get the IP, will be something like '10.1.1.131'
# create a temp busybox pod
kubectl run busybox --image=busybox --rm -it --restart=Never -- wget -O- 10.1.1.131:80
```
Alternatively you can also try a more advanced option:
```bash
# Get IP of the nginx pod
NGINX_IP=$(kubectl get pod nginx -o jsonpath='{.status.podIP}')
# create a temp busybox pod
kubectl run busybox --image=busybox --env="NGINX_IP=$NGINX_IP" --rm -it --restart=Never -- sh -c 'wget -O- $NGINX_IP:80'
```
Or just in one line:
```bash
kubectl run busybox --image=busybox --rm -it --restart=Never -- wget -O- $(kubectl get pod nginx -o jsonpath='{.status.podIP}:{.spec.containers[0].ports[0].containerPort}')
```
</p>
</details>
### Get pod's YAML
<details><summary>show</summary>
<p>
```bash
kubectl get po nginx -o yaml
# or
kubectl get po nginx -oyaml
# or
kubectl get po nginx --output yaml
# or
kubectl get po nginx --output=yaml
```
</p>
</details>
### Get information about the pod, including details about potential issues (e.g. pod hasn't started)
<details><summary>show</summary>
<p>
```bash
kubectl describe po nginx
```
</p>
</details>
### Get pod logs
<details><summary>show</summary>
<p>
```bash
kubectl logs nginx
```
</p>
</details>
### If pod crashed and restarted, get logs about the previous instance
<details><summary>show</summary>
<p>
```bash
kubectl logs nginx -p
# or
kubectl logs nginx --previous
```
</p>
</details>
### Execute a simple shell on the nginx pod
<details><summary>show</summary>
<p>
```bash
kubectl exec -it nginx -- /bin/sh
```
</p>
</details>
### Create a busybox pod that echoes 'hello world' and then exits
<details><summary>show</summary>
<p>
```bash
kubectl run busybox --image=busybox -it --restart=Never -- echo 'hello world'
# or
kubectl run busybox --image=busybox -it --restart=Never -- /bin/sh -c 'echo hello world'
```
</p>
</details>
### Do the same, but have the pod deleted automatically when it's completed
<details><summary>show</summary>
<p>
```bash
kubectl run busybox --image=busybox -it --rm --restart=Never -- /bin/sh -c 'echo hello world'
kubectl get po # nowhere to be found :)
```
</p>
</details>
### Create an nginx pod and set an env value as 'var1=val1'. Check the env value existence within the pod
<details><summary>show</summary>
<p>
```bash
kubectl run nginx --image=nginx --restart=Never --env=var1=val1
# then
kubectl exec -it nginx -- env
# or
kubectl exec -it nginx -- sh -c 'echo $var1'
# or
kubectl describe po nginx | grep val1
# or
kubectl run nginx --restart=Never --image=nginx --env=var1=val1 -it --rm -- env
# or
kubectl run nginx --image nginx --restart=Never --env=var1=val1 -it --rm -- sh -c 'echo $var1'
```
</p>
</details> | ckad excersises | https gaforgithub azurewebsites net api repo CKAD exercises core concepts empty Core Concepts 13 kubernetes io Documentation Reference kubectl CLI kubectl Cheat Sheet https kubernetes io docs reference kubectl cheatsheet kubernetes io Documentation Tasks Monitoring Logging and Debugging Get a Shell to a Running Container https kubernetes io docs tasks debug application cluster get shell running container kubernetes io Documentation Tasks Access Applications in a Cluster Configure Access to Multiple Clusters https kubernetes io docs tasks access application cluster configure access multiple clusters kubernetes io Documentation Tasks Access Applications in a Cluster Accessing Clusters https kubernetes io docs tasks access application cluster access cluster using API kubernetes io Documentation Tasks Access Applications in a Cluster Use Port Forwarding to Access Applications in a Cluster https kubernetes io docs tasks access application cluster port forward access application cluster Create a namespace called mynamespace and a pod with image nginx called nginx on this namespace details summary show summary p bash kubectl create namespace mynamespace kubectl run nginx image nginx restart Never n mynamespace p details Create the pod that was just described using YAML details summary show summary p Easily generate YAML with bash kubectl run nginx image nginx restart Never dry run client n mynamespace o yaml pod yaml bash cat pod yaml yaml apiVersion v1 kind Pod metadata creationTimestamp null labels run nginx name nginx namespace mynamespace spec containers image nginx imagePullPolicy IfNotPresent name nginx resources dnsPolicy ClusterFirst restartPolicy Never status bash kubectl create f pod yaml Alternatively you can run in one line bash kubectl run nginx image nginx restart Never dry run client o yaml kubectl create n mynamespace f p details Create a busybox pod using kubectl command that runs the command env Run it and see the output details summary show summary p bash kubectl run busybox image busybox command restart Never it rm env it will help in seeing the output rm will immediately delete the pod after it exits or just run it without it kubectl run busybox image busybox command restart Never env and then check its logs kubectl logs busybox p details Create a busybox pod using YAML that runs the command env Run it and see the output details summary show summary p bash create a YAML template with this command kubectl run busybox image busybox restart Never dry run client o yaml command env envpod yaml see it cat envpod yaml YAML apiVersion v1 kind Pod metadata creationTimestamp null labels run busybox name busybox spec containers command env image busybox name busybox resources dnsPolicy ClusterFirst restartPolicy Never status bash apply it and then see the logs kubectl apply f envpod yaml kubectl logs busybox p details Get the YAML for a new namespace called myns without creating it details summary show summary p bash kubectl create namespace myns o yaml dry run client p details Create the YAML for a new ResourceQuota called myrq with hard limits of 1 CPU 1G memory and 2 pods without creating it details summary show summary p bash kubectl create quota myrq hard cpu 1 memory 1G pods 2 dry run client o yaml p details Get pods on all namespaces details summary show summary p bash kubectl get po all namespaces Alternatively bash kubectl get po A p details Create a pod with image nginx called nginx and expose traffic on port 80 details summary show summary p bash kubectl run nginx image nginx restart Never port 80 p details Change pod s image to nginx 1 24 0 Observe that the container will be restarted as soon as the image gets pulled details summary show summary p Note The RESTARTS column should contain 0 initially ideally it could be any number bash kubectl set image POD POD NAME CONTAINER NAME IMAGE NAME TAG kubectl set image pod nginx nginx nginx 1 24 0 kubectl describe po nginx you will see an event Container will be killed and recreated kubectl get po nginx w watch it Note some time after changing the image you should see that the value in the RESTARTS column has been increased by 1 because the container has been restarted as stated in the events shown at the bottom of the kubectl describe pod command Events Type Reason Age From Message Normal Killing 100s kubelet node3 Container pod1 definition changed will be restarted Normal Pulling 100s kubelet node3 Pulling image nginx 1 24 0 Normal Pulled 41s kubelet node3 Successfully pulled image nginx 1 24 0 Normal Created 36s x2 over 9m43s kubelet node3 Created container pod1 Normal Started 36s x2 over 9m43s kubelet node3 Started container pod1 Note you can check pod s image by running bash kubectl get po nginx o jsonpath spec containers image n p details Get nginx pod s ip created in previous step use a temp busybox image to wget its details summary show summary p bash kubectl get po o wide get the IP will be something like 10 1 1 131 create a temp busybox pod kubectl run busybox image busybox rm it restart Never wget O 10 1 1 131 80 Alternatively you can also try a more advanced option bash Get IP of the nginx pod NGINX IP kubectl get pod nginx o jsonpath status podIP create a temp busybox pod kubectl run busybox image busybox env NGINX IP NGINX IP rm it restart Never sh c wget O NGINX IP 80 Or just in one line bash kubectl run busybox image busybox rm it restart Never wget O kubectl get pod nginx o jsonpath status podIP spec containers 0 ports 0 containerPort p details Get pod s YAML details summary show summary p bash kubectl get po nginx o yaml or kubectl get po nginx oyaml or kubectl get po nginx output yaml or kubectl get po nginx output yaml p details Get information about the pod including details about potential issues e g pod hasn t started details summary show summary p bash kubectl describe po nginx p details Get pod logs details summary show summary p bash kubectl logs nginx p details If pod crashed and restarted get logs about the previous instance details summary show summary p bash kubectl logs nginx p or kubectl logs nginx previous p details Execute a simple shell on the nginx pod details summary show summary p bash kubectl exec it nginx bin sh p details Create a busybox pod that echoes hello world and then exits details summary show summary p bash kubectl run busybox image busybox it restart Never echo hello world or kubectl run busybox image busybox it restart Never bin sh c echo hello world p details Do the same but have the pod deleted automatically when it s completed details summary show summary p bash kubectl run busybox image busybox it rm restart Never bin sh c echo hello world kubectl get po nowhere to be found p details Create an nginx pod and set an env value as var1 val1 Check the env value existence within the pod details summary show summary p bash kubectl run nginx image nginx restart Never env var1 val1 then kubectl exec it nginx env or kubectl exec it nginx sh c echo var1 or kubectl describe po nginx grep val1 or kubectl run nginx restart Never image nginx env var1 val1 it rm env or kubectl run nginx image nginx restart Never env var1 val1 it rm sh c echo var1 p details |
ckad excersises Create a CustomResourceDefinition manifest file for an Operator with the following specifications Name Note CRD is part of the new CKAD syllabus Here are a few examples of installing custom resource into the Kubernetes API by creating a CRD Group Schema CRD in K8s Extend the Kubernetes API with CRD CustomResourceDefinition | # Extend the Kubernetes API with CRD (CustomResourceDefinition)
- Note: CRD is part of the new CKAD syllabus. Here are a few examples of installing custom resource into the Kubernetes API by creating a CRD.
## CRD in K8s
### Create a CustomResourceDefinition manifest file for an Operator with the following specifications :
* *Name* : `operators.stable.example.com`
* *Group* : `stable.example.com`
* *Schema*: `<email: string><name: string><age: integer>`
* *Scope*: `Namespaced`
* *Names*: `<plural: operators><singular: operator><shortNames: op>`
* *Kind*: `Operator`
<details><summary>show</summary>
<p>
```yaml
apiVersion: apiextensions.k8s.io/v1
kind: CustomResourceDefinition
metadata:
# name must match the spec fields below, and be in the form: <plural>.<group>
name: operators.stable.example.com
spec:
group: stable.example.com
versions:
- name: v1
served: true
# One and only one version must be marked as the storage version.
storage: true
schema:
openAPIV3Schema:
type: object
properties:
spec:
type: object
properties:
email:
type: string
name:
type: string
age:
type: integer
scope: Namespaced
names:
plural: operators
singular: operator
# kind is normally the CamelCased singular type. Your resource manifests use this.
kind: Operator
shortNames:
- op
```
</p>
</details>
### Create the CRD resource in the K8S API
<details><summary>show</summary>
<p>
```bash
kubectl apply -f operator-crd.yml
```
</p>
</details>
### Create custom object from the CRD
* *Name* : `operator-sample`
* *Kind*: `Operator`
* Spec:
* email: `[email protected]`
* name: `operator sample`
* age: `30`
<details><summary>show</summary>
<p>
```yaml
apiVersion: stable.example.com/v1
kind: Operator
metadata:
name: operator-sample
spec:
email: [email protected]
name: "operator sample"
age: 30
```
```bash
kubectl apply -f operator.yml
```
</p>
</details>
### Listing operator
<details><summary>show</summary>
<p>
Use singular, plural and short forms
```bash
kubectl get operators
or
kubectl get operator
or
kubectl get op
```
</p>
</details> | ckad excersises | Extend the Kubernetes API with CRD CustomResourceDefinition Note CRD is part of the new CKAD syllabus Here are a few examples of installing custom resource into the Kubernetes API by creating a CRD CRD in K8s Create a CustomResourceDefinition manifest file for an Operator with the following specifications Name operators stable example com Group stable example com Schema email string name string age integer Scope Namespaced Names plural operators singular operator shortNames op Kind Operator details summary show summary p yaml apiVersion apiextensions k8s io v1 kind CustomResourceDefinition metadata name must match the spec fields below and be in the form plural group name operators stable example com spec group stable example com versions name v1 served true One and only one version must be marked as the storage version storage true schema openAPIV3Schema type object properties spec type object properties email type string name type string age type integer scope Namespaced names plural operators singular operator kind is normally the CamelCased singular type Your resource manifests use this kind Operator shortNames op p details Create the CRD resource in the K8S API details summary show summary p bash kubectl apply f operator crd yml p details Create custom object from the CRD Name operator sample Kind Operator Spec email operator sample stable example com name operator sample age 30 details summary show summary p yaml apiVersion stable example com v1 kind Operator metadata name operator sample spec email operator sample stable example com name operator sample age 30 bash kubectl apply f operator yml p details Listing operator details summary show summary p Use singular plural and short forms bash kubectl get operators or kubectl get operator or kubectl get op p details |
ckad excersises Multi container Pods 10 Create a Pod with two containers both with image busybox and command echo hello sleep 3600 Connect to the second container and run ls details summary show summary p Easiest way to do it is create a pod with a single container and save its definition in a YAML file | ![](https://gaforgithub.azurewebsites.net/api?repo=CKAD-exercises/multi_container&empty)
# Multi-container Pods (10%)
### Create a Pod with two containers, both with image busybox and command "echo hello; sleep 3600". Connect to the second container and run 'ls'
<details><summary>show</summary>
<p>
Easiest way to do it is create a pod with a single container and save its definition in a YAML file:
```bash
kubectl run busybox --image=busybox --restart=Never -o yaml --dry-run=client -- /bin/sh -c 'echo hello;sleep 3600' > pod.yaml
vi pod.yaml
```
Copy/paste the container related values, so your final YAML should contain the following two containers (make sure those containers have a different name):
```YAML
containers:
- args:
- /bin/sh
- -c
- echo hello;sleep 3600
image: busybox
imagePullPolicy: IfNotPresent
name: busybox
resources: {}
- args:
- /bin/sh
- -c
- echo hello;sleep 3600
image: busybox
name: busybox2
```
```bash
kubectl create -f pod.yaml
# Connect to the busybox2 container within the pod
kubectl exec -it busybox -c busybox2 -- /bin/sh
ls
exit
# or you can do the above with just an one-liner
kubectl exec -it busybox -c busybox2 -- ls
# you can do some cleanup
kubectl delete po busybox
```
</p>
</details>
### Create a pod with an nginx container exposed on port 80. Add a busybox init container which downloads a page using "wget -O /work-dir/index.html http://neverssl.com/online". Make a volume of type emptyDir and mount it in both containers. For the nginx container, mount it on "/usr/share/nginx/html" and for the initcontainer, mount it on "/work-dir". When done, get the IP of the created pod and create a busybox pod and run "wget -O- IP"
<details><summary>show</summary>
<p>
Easiest way to do it is create a pod with a single container and save its definition in a YAML file:
```bash
kubectl run box --image=nginx --restart=Never --port=80 --dry-run=client -o yaml > pod-init.yaml
```
Copy/paste the container related values, so your final YAML should contain the volume and the initContainer:
Volume:
```YAML
containers:
- image: nginx
...
volumeMounts:
- name: vol
mountPath: /usr/share/nginx/html
volumes:
- name: vol
emptyDir: {}
```
initContainer:
```YAML
...
initContainers:
- args:
- /bin/sh
- -c
- "wget -O /work-dir/index.html http://neverssl.com/online"
image: busybox
name: box
volumeMounts:
- name: vol
mountPath: /work-dir
```
In total you get:
```YAML
apiVersion: v1
kind: Pod
metadata:
labels:
run: box
name: box
spec:
initContainers:
- args:
- /bin/sh
- -c
- "wget -O /work-dir/index.html http://neverssl.com/online"
image: busybox
name: box
volumeMounts:
- name: vol
mountPath: /work-dir
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
volumeMounts:
- name: vol
mountPath: /usr/share/nginx/html
volumes:
- name: vol
emptyDir: {}
```
```bash
# Apply pod
kubectl apply -f pod-init.yaml
# Get IP
kubectl get po -o wide
# Execute wget
kubectl run box-test --image=busybox --restart=Never -it --rm -- /bin/sh -c "wget -O- $(kubectl get pod box -o jsonpath='{.status.podIP}')"
# you can do some cleanup
kubectl delete po box
```
</p>
</details>
| ckad excersises | https gaforgithub azurewebsites net api repo CKAD exercises multi container empty Multi container Pods 10 Create a Pod with two containers both with image busybox and command echo hello sleep 3600 Connect to the second container and run ls details summary show summary p Easiest way to do it is create a pod with a single container and save its definition in a YAML file bash kubectl run busybox image busybox restart Never o yaml dry run client bin sh c echo hello sleep 3600 pod yaml vi pod yaml Copy paste the container related values so your final YAML should contain the following two containers make sure those containers have a different name YAML containers args bin sh c echo hello sleep 3600 image busybox imagePullPolicy IfNotPresent name busybox resources args bin sh c echo hello sleep 3600 image busybox name busybox2 bash kubectl create f pod yaml Connect to the busybox2 container within the pod kubectl exec it busybox c busybox2 bin sh ls exit or you can do the above with just an one liner kubectl exec it busybox c busybox2 ls you can do some cleanup kubectl delete po busybox p details Create a pod with an nginx container exposed on port 80 Add a busybox init container which downloads a page using wget O work dir index html http neverssl com online Make a volume of type emptyDir and mount it in both containers For the nginx container mount it on usr share nginx html and for the initcontainer mount it on work dir When done get the IP of the created pod and create a busybox pod and run wget O IP details summary show summary p Easiest way to do it is create a pod with a single container and save its definition in a YAML file bash kubectl run box image nginx restart Never port 80 dry run client o yaml pod init yaml Copy paste the container related values so your final YAML should contain the volume and the initContainer Volume YAML containers image nginx volumeMounts name vol mountPath usr share nginx html volumes name vol emptyDir initContainer YAML initContainers args bin sh c wget O work dir index html http neverssl com online image busybox name box volumeMounts name vol mountPath work dir In total you get YAML apiVersion v1 kind Pod metadata labels run box name box spec initContainers args bin sh c wget O work dir index html http neverssl com online image busybox name box volumeMounts name vol mountPath work dir containers image nginx name nginx ports containerPort 80 volumeMounts name vol mountPath usr share nginx html volumes name vol emptyDir bash Apply pod kubectl apply f pod init yaml Get IP kubectl get po o wide Execute wget kubectl run box test image busybox restart Never it rm bin sh c wget O kubectl get pod box o jsonpath status podIP you can do some cleanup kubectl delete po box p details |
docker on GitHub GitLab doing exactly this now your project repo it s now version controlled and easily enable someone else to contribute to your project is a tool that was developed to help define and Someone would only need to clone your repo and start the compose app In fact you might see quite a few projects The big advantage of using Compose is you can define your application stack in a file keep it at the root of and with a single command can spin everything up or tear it all down share multi container applications With Compose we can create a YAML file to define the services |
[Docker Compose](https://docs.docker.com/compose/) is a tool that was developed to help define and
share multi-container applications. With Compose, we can create a YAML file to define the services
and with a single command, can spin everything up or tear it all down.
The _big_ advantage of using Compose is you can define your application stack in a file, keep it at the root of
your project repo (it's now version controlled), and easily enable someone else to contribute to your project.
Someone would only need to clone your repo and start the compose app. In fact, you might see quite a few projects
on GitHub/GitLab doing exactly this now.
So, how do we get started?
## Installing Docker Compose
If you installed Docker Desktop for Windows, Mac, or Linux you already have Docker Compose!
Play-with-Docker instances already have Docker Compose installed as well. If you are on
another system, you can install Docker Compose using [the instructions here](https://docs.docker.com/compose/install/).
## Creating our Compose File
1. Inside of the app folder, create a file named `docker-compose.yml` (next to the `Dockerfile` and `package.json` files).
1. In the compose file, we'll start off by defining a list of services (or containers) we want to run as part of our application.
```yaml
services:
```
And now, we'll start migrating a service at a time into the compose file.
## Defining the App Service
To remember, this was the command we were using to define our app container.
```bash
docker run -dp 3000:3000 \
-w /app -v "$(pwd):/app" \
--network todo-app \
-e MYSQL_HOST=mysql \
-e MYSQL_USER=root \
-e MYSQL_PASSWORD=secret \
-e MYSQL_DB=todos \
node:18-alpine \
sh -c "yarn install && yarn run dev"
```
1. First, let's define the service entry and the image for the container. We can pick any name for the service.
The name will automatically become a network alias, which will be useful when defining our MySQL service.
```yaml hl_lines="2 3"
services:
app:
image: node:18-alpine
```
1. Typically, you will see the command close to the `image` definition, although there is no requirement on ordering.
So, let's go ahead and move that into our file.
```yaml hl_lines="4"
services:
app:
image: node:18-alpine
command: sh -c "yarn install && yarn run dev"
```
1. Let's migrate the `-p 3000:3000` part of the command by defining the `ports` for the service. We will use the
[short syntax](https://docs.docker.com/compose/compose-file/#short-syntax-2) here, but there is also a more verbose
[long syntax](https://docs.docker.com/compose/compose-file/#long-syntax-2) available as well.
```yaml hl_lines="5 6"
services:
app:
image: node:18-alpine
command: sh -c "yarn install && yarn run dev"
ports:
- 3000:3000
```
1. Next, we'll migrate both the working directory (`-w /app`) and the volume mapping (`-v "$(pwd):/app"`) by using
the `working_dir` and `volumes` definitions. Volumes also has a [short](https://docs.docker.com/compose/compose-file/#short-syntax-4) and [long](https://docs.docker.com/compose/compose-file/#long-syntax-4) syntax.
One advantage of Docker Compose volume definitions is we can use relative paths from the current directory.
```yaml hl_lines="7 8 9"
services:
app:
image: node:18-alpine
command: sh -c "yarn install && yarn run dev"
ports:
- 3000:3000
working_dir: /app
volumes:
- ./:/app
```
1. Finally, we need to migrate the environment variable definitions using the `environment` key.
```yaml hl_lines="10 11 12 13 14"
services:
app:
image: node:18-alpine
command: sh -c "yarn install && yarn run dev"
ports:
- 3000:3000
working_dir: /app
volumes:
- ./:/app
environment:
MYSQL_HOST: mysql
MYSQL_USER: root
MYSQL_PASSWORD: secret
MYSQL_DB: todos
```
### Defining the MySQL Service
Now, it's time to define the MySQL service. The command that we used for that container was the following:
```bash
docker run -d \
--network todo-app --network-alias mysql \
-v todo-mysql-data:/var/lib/mysql \
-e MYSQL_ROOT_PASSWORD=secret \
-e MYSQL_DATABASE=todos \
mysql:8.0
```
1. We will first define the new service and name it `mysql` so it automatically gets the network alias. We'll
go ahead and specify the image to use as well.
```yaml hl_lines="4 5"
services:
app:
# The app service definition
mysql:
image: mysql:8.0
```
1. Next, we'll define the volume mapping. When we ran the container with `docker run`, the named volume was created
automatically. However, that doesn't happen when running with Compose. We need to define the volume in the top-level
`volumes:` section and then specify the mountpoint in the service config. By simply providing only the volume name,
the default options are used. There are [many more options available](https://docs.docker.com/compose/compose-file/#volumes-top-level-element) though.
```yaml hl_lines="6 7 8 9 10"
services:
app:
# The app service definition
mysql:
image: mysql:8.0
volumes:
- todo-mysql-data:/var/lib/mysql
volumes:
todo-mysql-data:
```
1. Finally, we only need to specify the environment variables.
```yaml hl_lines="8 9 10"
services:
app:
# The app service definition
mysql:
image: mysql:8.0
volumes:
- todo-mysql-data:/var/lib/mysql
environment:
MYSQL_ROOT_PASSWORD: secret
MYSQL_DATABASE: todos
volumes:
todo-mysql-data:
```
At this point, our complete `docker-compose.yml` should look like this:
```yaml
services:
app:
image: node:18-alpine
command: sh -c "yarn install && yarn run dev"
ports:
- 3000:3000
working_dir: /app
volumes:
- ./:/app
environment:
MYSQL_HOST: mysql
MYSQL_USER: root
MYSQL_PASSWORD: secret
MYSQL_DB: todos
mysql:
image: mysql:8.0
volumes:
- todo-mysql-data:/var/lib/mysql
environment:
MYSQL_ROOT_PASSWORD: secret
MYSQL_DATABASE: todos
volumes:
todo-mysql-data:
```
## Running our Application Stack
Now that we have our `docker-compose.yml` file, we can start it up!
1. Make sure no other copies of the app/db are running first (`docker ps` and `docker rm -f <ids>`).
1. Start up the application stack using the `docker compose up` command. We'll add the `-d` flag to run everything in the
background.
```bash
docker compose up -d
```
When we run this, we should see output like this:
```plaintext
[+] Running 3/3
⠿ Network app_default Created 0.0s
⠿ Container app-mysql-1 Started 0.4s
⠿ Container app-app-1 Started 0.4s
```
You'll notice that the volume was created as well as a network! By default, Docker Compose automatically creates a
network specifically for the application stack (which is why we didn't define one in the compose file).
1. Let's look at the logs using the `docker compose logs -f` command. You'll see the logs from each of the services interleaved
into a single stream. This is incredibly useful when you want to watch for timing-related issues. The `-f` flag "follows" the
log, so will give you live output as it's generated.
If you don't already, you'll see output that looks like this...
```plaintext
mysql_1 | 2022-11-23T04:01:20.185015Z 0 [System] [MY-010931] [Server] /usr/sbin/mysqld: ready for connections. Version: '8.0.31' socket: '/var/run/mysqld/mysqld.sock' port: 3306 MySQL Community Server - GPL.
app_1 | Connected to mysql db at host mysql
app_1 | Listening on port 3000
```
The service name is displayed at the beginning of the line (often colored) to help distinguish messages. If you want to
view the logs for a specific service, you can add the service name to the end of the logs command (for example,
`docker compose logs -f app`).
!!! info "Pro tip - Waiting for the DB before starting the app"
When the app is starting up, it actually sits and waits for MySQL to be up and ready before trying to connect to it.
Docker doesn't have any built-in support to wait for another container to be fully up, running, and ready
before starting another container. For Node-based projects, you can use the
[wait-port](https://github.com/dwmkerr/wait-port) dependency. Similar projects exist for other languages/frameworks.
1. At this point, you should be able to open your app and see it running. And hey! We're down to a single command!
## Seeing our App Stack in Docker Dashboard
If we look at the Docker Dashboard, we'll see that there is a group named **app**. This is the "project name" from Docker
Compose and used to group the containers together. By default, the project name is simply the name of the directory that the
`docker-compose.yml` was located in.
![Docker Dashboard with app project](dashboard-app-project-collapsed.png)
If you twirl down the app, you will see the two containers we defined in the compose file. The names are also a little
more descriptive, as they follow the pattern of `<project-name>_<service-name>_<replica-number>`. So, it's very easy to
quickly see what container is our app and which container is the mysql database.
![Docker Dashboard with app project expanded](dashboard-app-project-expanded.png)
## Tearing it All Down
When you're ready to tear it all down, simply run `docker compose down` or hit the trash can on the Docker Dashboard
for the entire app. The containers will stop and the network will be removed.
!!! warning "Removing Volumes"
By default, named volumes in your compose file are NOT removed when running `docker compose down`. If you want to
remove the volumes, you will need to add the `--volumes` flag.
The Docker Dashboard does _not_ remove volumes when you delete the app stack.
Once torn down, you can switch to another project, run `docker compose up` and be ready to contribute to that project! It really
doesn't get much simpler than that!
## Recap
In this section, we learned about Docker Compose and how it helps us dramatically simplify the defining and
sharing of multi-service applications. We created a Compose file by translating the commands we were
using into the appropriate compose format.
At this point, we're starting to wrap up the tutorial. However, there are a few best practices about
image building we want to cover, as there is a big issue with the Dockerfile we've been using. So,
let's take a look! | docker | Docker Compose https docs docker com compose is a tool that was developed to help define and share multi container applications With Compose we can create a YAML file to define the services and with a single command can spin everything up or tear it all down The big advantage of using Compose is you can define your application stack in a file keep it at the root of your project repo it s now version controlled and easily enable someone else to contribute to your project Someone would only need to clone your repo and start the compose app In fact you might see quite a few projects on GitHub GitLab doing exactly this now So how do we get started Installing Docker Compose If you installed Docker Desktop for Windows Mac or Linux you already have Docker Compose Play with Docker instances already have Docker Compose installed as well If you are on another system you can install Docker Compose using the instructions here https docs docker com compose install Creating our Compose File 1 Inside of the app folder create a file named docker compose yml next to the Dockerfile and package json files 1 In the compose file we ll start off by defining a list of services or containers we want to run as part of our application yaml services And now we ll start migrating a service at a time into the compose file Defining the App Service To remember this was the command we were using to define our app container bash docker run dp 3000 3000 w app v pwd app network todo app e MYSQL HOST mysql e MYSQL USER root e MYSQL PASSWORD secret e MYSQL DB todos node 18 alpine sh c yarn install yarn run dev 1 First let s define the service entry and the image for the container We can pick any name for the service The name will automatically become a network alias which will be useful when defining our MySQL service yaml hl lines 2 3 services app image node 18 alpine 1 Typically you will see the command close to the image definition although there is no requirement on ordering So let s go ahead and move that into our file yaml hl lines 4 services app image node 18 alpine command sh c yarn install yarn run dev 1 Let s migrate the p 3000 3000 part of the command by defining the ports for the service We will use the short syntax https docs docker com compose compose file short syntax 2 here but there is also a more verbose long syntax https docs docker com compose compose file long syntax 2 available as well yaml hl lines 5 6 services app image node 18 alpine command sh c yarn install yarn run dev ports 3000 3000 1 Next we ll migrate both the working directory w app and the volume mapping v pwd app by using the working dir and volumes definitions Volumes also has a short https docs docker com compose compose file short syntax 4 and long https docs docker com compose compose file long syntax 4 syntax One advantage of Docker Compose volume definitions is we can use relative paths from the current directory yaml hl lines 7 8 9 services app image node 18 alpine command sh c yarn install yarn run dev ports 3000 3000 working dir app volumes app 1 Finally we need to migrate the environment variable definitions using the environment key yaml hl lines 10 11 12 13 14 services app image node 18 alpine command sh c yarn install yarn run dev ports 3000 3000 working dir app volumes app environment MYSQL HOST mysql MYSQL USER root MYSQL PASSWORD secret MYSQL DB todos Defining the MySQL Service Now it s time to define the MySQL service The command that we used for that container was the following bash docker run d network todo app network alias mysql v todo mysql data var lib mysql e MYSQL ROOT PASSWORD secret e MYSQL DATABASE todos mysql 8 0 1 We will first define the new service and name it mysql so it automatically gets the network alias We ll go ahead and specify the image to use as well yaml hl lines 4 5 services app The app service definition mysql image mysql 8 0 1 Next we ll define the volume mapping When we ran the container with docker run the named volume was created automatically However that doesn t happen when running with Compose We need to define the volume in the top level volumes section and then specify the mountpoint in the service config By simply providing only the volume name the default options are used There are many more options available https docs docker com compose compose file volumes top level element though yaml hl lines 6 7 8 9 10 services app The app service definition mysql image mysql 8 0 volumes todo mysql data var lib mysql volumes todo mysql data 1 Finally we only need to specify the environment variables yaml hl lines 8 9 10 services app The app service definition mysql image mysql 8 0 volumes todo mysql data var lib mysql environment MYSQL ROOT PASSWORD secret MYSQL DATABASE todos volumes todo mysql data At this point our complete docker compose yml should look like this yaml services app image node 18 alpine command sh c yarn install yarn run dev ports 3000 3000 working dir app volumes app environment MYSQL HOST mysql MYSQL USER root MYSQL PASSWORD secret MYSQL DB todos mysql image mysql 8 0 volumes todo mysql data var lib mysql environment MYSQL ROOT PASSWORD secret MYSQL DATABASE todos volumes todo mysql data Running our Application Stack Now that we have our docker compose yml file we can start it up 1 Make sure no other copies of the app db are running first docker ps and docker rm f ids 1 Start up the application stack using the docker compose up command We ll add the d flag to run everything in the background bash docker compose up d When we run this we should see output like this plaintext Running 3 3 Network app default Created 0 0s Container app mysql 1 Started 0 4s Container app app 1 Started 0 4s You ll notice that the volume was created as well as a network By default Docker Compose automatically creates a network specifically for the application stack which is why we didn t define one in the compose file 1 Let s look at the logs using the docker compose logs f command You ll see the logs from each of the services interleaved into a single stream This is incredibly useful when you want to watch for timing related issues The f flag follows the log so will give you live output as it s generated If you don t already you ll see output that looks like this plaintext mysql 1 2022 11 23T04 01 20 185015Z 0 System MY 010931 Server usr sbin mysqld ready for connections Version 8 0 31 socket var run mysqld mysqld sock port 3306 MySQL Community Server GPL app 1 Connected to mysql db at host mysql app 1 Listening on port 3000 The service name is displayed at the beginning of the line often colored to help distinguish messages If you want to view the logs for a specific service you can add the service name to the end of the logs command for example docker compose logs f app info Pro tip Waiting for the DB before starting the app When the app is starting up it actually sits and waits for MySQL to be up and ready before trying to connect to it Docker doesn t have any built in support to wait for another container to be fully up running and ready before starting another container For Node based projects you can use the wait port https github com dwmkerr wait port dependency Similar projects exist for other languages frameworks 1 At this point you should be able to open your app and see it running And hey We re down to a single command Seeing our App Stack in Docker Dashboard If we look at the Docker Dashboard we ll see that there is a group named app This is the project name from Docker Compose and used to group the containers together By default the project name is simply the name of the directory that the docker compose yml was located in Docker Dashboard with app project dashboard app project collapsed png If you twirl down the app you will see the two containers we defined in the compose file The names are also a little more descriptive as they follow the pattern of project name service name replica number So it s very easy to quickly see what container is our app and which container is the mysql database Docker Dashboard with app project expanded dashboard app project expanded png Tearing it All Down When you re ready to tear it all down simply run docker compose down or hit the trash can on the Docker Dashboard for the entire app The containers will stop and the network will be removed warning Removing Volumes By default named volumes in your compose file are NOT removed when running docker compose down If you want to remove the volumes you will need to add the volumes flag The Docker Dashboard does not remove volumes when you delete the app stack Once torn down you can switch to another project run docker compose up and be ready to contribute to that project It really doesn t get much simpler than that Recap In this section we learned about Docker Compose and how it helps us dramatically simplify the defining and sharing of multi service applications We created a Compose file by translating the commands we were using into the appropriate compose format At this point we re starting to wrap up the tutorial However there are a few best practices about image building we want to cover as there is a big issue with the Dockerfile we ve been using So let s take a look |
docker Updating our Source Code You have no todo items yet Add one above Pretty simple right Let s make the change change the empty text when we don t have any todo list items They As a small feature request we ve been asked by the product team to would like to transition it to the following |
As a small feature request, we've been asked by the product team to
change the "empty text" when we don't have any todo list items. They
would like to transition it to the following:
> You have no todo items yet! Add one above!
Pretty simple, right? Let's make the change.
## Updating our Source Code
1. In the `src/static/js/app.js` file, update line 56 to use the new empty text.
```diff
- <p className="text-center">No items yet! Add one above!</p>
+ <p className="text-center">You have no todo items yet! Add one above!</p>
```
1. Let's build our updated version of the image, using the same command we used before.
```bash
docker build -t getting-started .
```
1. Let's start a new container using the updated code.
```bash
docker run -dp 3000:3000 getting-started
```
**Uh oh!** You probably saw an error like this (the IDs will be different):
```bash
docker: Error response from daemon: driver failed programming external connectivity on endpoint laughing_burnell
(bb242b2ca4d67eba76e79474fb36bb5125708ebdabd7f45c8eaf16caaabde9dd): Bind for 0.0.0.0:3000 failed: port is already allocated.
```
So, what happened? We aren't able to start the new container because our old container is still
running. The reason this is a problem is because that container is using the host's port 3000 and
only one process on the machine (containers included) can listen to a specific port. To fix this,
we need to remove the old container.
## Replacing our Old Container
To remove a container, it first needs to be stopped. Once it has stopped, it can be removed. We have two
ways that we can remove the old container. Feel free to choose the path that you're most comfortable with.
### Removing a container using the CLI
1. Get the ID of the container by using the `docker ps` command.
```bash
docker ps
```
1. Use the `docker stop` command to stop the container.
```bash
# Swap out <the-container-id> with the ID from docker ps
docker stop <the-container-id>
```
1. Once the container has stopped, you can remove it by using the `docker rm` command.
```bash
docker rm <the-container-id>
```
!!! info "Pro tip"
You can stop and remove a container in a single command by adding the "force" flag
to the `docker rm` command. For example: `docker rm -f <the-container-id>`
### Removing a container using the Docker Dashboard
If you open the Docker dashboard, you can remove a container with two clicks! It's certainly
much easier than having to look up the container ID and remove it.
1. With the dashboard opened, hover over the app container and you'll see a collection of action
buttons appear on the right.
1. Click on the trash can icon to delete the container.
1. Confirm the removal and you're done!
![Docker Dashboard - removing a container](dashboard-removing-container.png)
### Starting our updated app container
1. Now, start your updated app.
```bash
docker run -dp 3000:3000 getting-started
```
1. Refresh your browser on [http://localhost:3000](http://localhost:3000) and you should see your updated help text!
![Updated application with updated empty text](todo-list-updated-empty-text.png){: style="width:55%" }
{: .text-center }
## Recap
While we were able to build an update, there were two things you might have noticed:
- All of the existing items in our todo list are gone! That's not a very good app! We'll talk about that
shortly.
- There were _a lot_ of steps involved for such a small change. In an upcoming section, we'll talk about
how to see code updates without needing to rebuild and start a new container every time we make a change.
Before talking about persistence, we'll quickly see how to share these images with others. | docker | As a small feature request we ve been asked by the product team to change the empty text when we don t have any todo list items They would like to transition it to the following You have no todo items yet Add one above Pretty simple right Let s make the change Updating our Source Code 1 In the src static js app js file update line 56 to use the new empty text diff p className text center No items yet Add one above p p className text center You have no todo items yet Add one above p 1 Let s build our updated version of the image using the same command we used before bash docker build t getting started 1 Let s start a new container using the updated code bash docker run dp 3000 3000 getting started Uh oh You probably saw an error like this the IDs will be different bash docker Error response from daemon driver failed programming external connectivity on endpoint laughing burnell bb242b2ca4d67eba76e79474fb36bb5125708ebdabd7f45c8eaf16caaabde9dd Bind for 0 0 0 0 3000 failed port is already allocated So what happened We aren t able to start the new container because our old container is still running The reason this is a problem is because that container is using the host s port 3000 and only one process on the machine containers included can listen to a specific port To fix this we need to remove the old container Replacing our Old Container To remove a container it first needs to be stopped Once it has stopped it can be removed We have two ways that we can remove the old container Feel free to choose the path that you re most comfortable with Removing a container using the CLI 1 Get the ID of the container by using the docker ps command bash docker ps 1 Use the docker stop command to stop the container bash Swap out the container id with the ID from docker ps docker stop the container id 1 Once the container has stopped you can remove it by using the docker rm command bash docker rm the container id info Pro tip You can stop and remove a container in a single command by adding the force flag to the docker rm command For example docker rm f the container id Removing a container using the Docker Dashboard If you open the Docker dashboard you can remove a container with two clicks It s certainly much easier than having to look up the container ID and remove it 1 With the dashboard opened hover over the app container and you ll see a collection of action buttons appear on the right 1 Click on the trash can icon to delete the container 1 Confirm the removal and you re done Docker Dashboard removing a container dashboard removing container png Starting our updated app container 1 Now start your updated app bash docker run dp 3000 3000 getting started 1 Refresh your browser on http localhost 3000 http localhost 3000 and you should see your updated help text Updated application with updated empty text todo list updated empty text png style width 55 text center Recap While we were able to build an update there were two things you might have noticed All of the existing items in our todo list are gone That s not a very good app We ll talk about that shortly There were a lot of steps involved for such a small change In an upcoming section we ll talk about how to see code updates without needing to rebuild and start a new container every time we make a change Before talking about persistence we ll quickly see how to share these images with others |
docker used to provide additional data into containers When working on an application we can use a bind mount to is stored In the previous chapter we talked about and used a named volume to persist the data in our database mount our source code into the container to let it see code changes respond and let us see the changes right Named volumes are great if we simply want to store data as we don t have to worry about where the data away With bind mounts we control the exact mountpoint on the host We can use this to persist data but is often |
In the previous chapter, we talked about and used a **named volume** to persist the data in our database.
Named volumes are great if we simply want to store data, as we don't have to worry about _where_ the data
is stored.
With **bind mounts**, we control the exact mountpoint on the host. We can use this to persist data, but is often
used to provide additional data into containers. When working on an application, we can use a bind mount to
mount our source code into the container to let it see code changes, respond, and let us see the changes right
away.
For Node-based applications, [nodemon](https://npmjs.com/package/nodemon) is a great tool to watch for file
changes and then restart the application. There are equivalent tools in most other languages and frameworks.
## Quick Volume Type Comparisons
Bind mounts and named volumes are the two main types of volumes that come with the Docker engine. However, additional
volume drivers are available to support other use cases ([SFTP](https://github.com/vieux/docker-volume-sshfs), [Ceph](https://ceph.com/geen-categorie/getting-started-with-the-docker-rbd-volume-plugin/), [NetApp](https://netappdvp.readthedocs.io/en/stable/), [S3](https://github.com/elementar/docker-s3-volume), and more).
| | Named Volumes | Bind Mounts |
| - | ------------- | ----------- |
| Host Location | Docker chooses | You control |
| Mount Example (using `-v`) | my-volume:/usr/local/data | /path/to/data:/usr/local/data |
| Populates new volume with container contents | Yes | No |
| Supports Volume Drivers | Yes | No |
## Starting a Dev-Mode Container
To run our container to support a development workflow, we will do the following:
- Mount our source code into the container
- Install all dependencies, including the "dev" dependencies
- Start nodemon to watch for filesystem changes
So, let's do it!
1. Make sure you don't have any of your own `getting-started` containers running (only the tutorial itself should be running).
1. Also make sure you are in app source code directory, i.e. `/path/to/getting-started/app`. If you aren't, you can `cd` into it, .e.g:
```bash
cd /path/to/getting-started/app
```
1. Now that you are in the `getting-started/app` directory, run the following command. We'll explain what's going on afterwards:
```bash
docker run -dp 3000:3000 \
-w /app -v "$(pwd):/app" \
node:18-alpine \
sh -c "yarn install && yarn run dev"
```
If you are using PowerShell then use this command.
```powershell
docker run -dp 3000:3000 `
-w /app -v "$(pwd):/app" `
node:18-alpine `
sh -c "yarn install && yarn run dev"
```
- `-dp 3000:3000` - same as before. Run in detached (background) mode and create a port mapping
- `-w /app` - sets the container's present working directory where the command will run from
- `-v "$(pwd):/app"` - bind mount (link) the host's present `getting-started/app` directory to the container's `/app` directory. Note: Docker requires absolute paths for binding mounts, so in this example we use `pwd` for printing the absolute path of the working directory, i.e. the `app` directory, instead of typing it manually
- `node:18-alpine` - the image to use. Note that this is the base image for our app from the Dockerfile
- `sh -c "yarn install && yarn run dev"` - the command. We're starting a shell using `sh` (alpine doesn't have `bash`) and
running `yarn install` to install _all_ dependencies and then running `yarn run dev`. If we look in the `package.json`,
we'll see that the `dev` script is starting `nodemon`.
1. You can watch the logs using `docker logs -f <container-id>`. You'll know you're ready to go when you see this...
```bash
docker logs -f <container-id>
$ nodemon src/index.js
[nodemon] 2.0.20
[nodemon] to restart at any time, enter `rs`
[nodemon] watching path(s): *.*
[nodemon] watching extensions: js,mjs,json
[nodemon] starting `node src/index.js`
Using sqlite database at /etc/todos/todo.db
Listening on port 3000
```
When you're done watching the logs, exit out by hitting `Ctrl`+`C`.
1. Now, let's make a change to the app. In the `src/static/js/app.js` file, let's change the "Add Item" button to simply say
"Add". This change will be on line 109 - remember to save the file.
```diff
- {submitting ? 'Adding...' : 'Add Item'}
+ {submitting ? 'Adding...' : 'Add'}
```
1. Simply refresh the page (or open it) and you should see the change reflected in the browser almost immediately. It might
take a few seconds for the Node server to restart, so if you get an error, just try refreshing after a few seconds.
![Screenshot of updated label for Add button](updated-add-button.png){: style="width:75%;"}
{: .text-center }
1. Feel free to make any other changes you'd like to make. When you're done, stop the container and build your new image
using `docker build -t getting-started .`.
Using bind mounts is _very_ common for local development setups. The advantage is that the dev machine doesn't need to have
all of the build tools and environments installed. With a single `docker run` command, the dev environment is pulled and ready
to go. We'll talk about Docker Compose in a future step, as this will help simplify our commands (we're already getting a lot
of flags).
## Recap
At this point, we can persist our database and respond rapidly to the needs and demands of our investors and founders. Hooray!
But, guess what? We received great news!
**Your project has been selected for future development!**
In order to prepare for production, we need to migrate our database from working in SQLite to something that can scale a
little better. For simplicity, we'll keep with a relational database and switch our application to use MySQL. But, how
should we run MySQL? How do we allow the containers to talk to each other? We'll talk about that next! | docker | In the previous chapter we talked about and used a named volume to persist the data in our database Named volumes are great if we simply want to store data as we don t have to worry about where the data is stored With bind mounts we control the exact mountpoint on the host We can use this to persist data but is often used to provide additional data into containers When working on an application we can use a bind mount to mount our source code into the container to let it see code changes respond and let us see the changes right away For Node based applications nodemon https npmjs com package nodemon is a great tool to watch for file changes and then restart the application There are equivalent tools in most other languages and frameworks Quick Volume Type Comparisons Bind mounts and named volumes are the two main types of volumes that come with the Docker engine However additional volume drivers are available to support other use cases SFTP https github com vieux docker volume sshfs Ceph https ceph com geen categorie getting started with the docker rbd volume plugin NetApp https netappdvp readthedocs io en stable S3 https github com elementar docker s3 volume and more Named Volumes Bind Mounts Host Location Docker chooses You control Mount Example using v my volume usr local data path to data usr local data Populates new volume with container contents Yes No Supports Volume Drivers Yes No Starting a Dev Mode Container To run our container to support a development workflow we will do the following Mount our source code into the container Install all dependencies including the dev dependencies Start nodemon to watch for filesystem changes So let s do it 1 Make sure you don t have any of your own getting started containers running only the tutorial itself should be running 1 Also make sure you are in app source code directory i e path to getting started app If you aren t you can cd into it e g bash cd path to getting started app 1 Now that you are in the getting started app directory run the following command We ll explain what s going on afterwards bash docker run dp 3000 3000 w app v pwd app node 18 alpine sh c yarn install yarn run dev If you are using PowerShell then use this command powershell docker run dp 3000 3000 w app v pwd app node 18 alpine sh c yarn install yarn run dev dp 3000 3000 same as before Run in detached background mode and create a port mapping w app sets the container s present working directory where the command will run from v pwd app bind mount link the host s present getting started app directory to the container s app directory Note Docker requires absolute paths for binding mounts so in this example we use pwd for printing the absolute path of the working directory i e the app directory instead of typing it manually node 18 alpine the image to use Note that this is the base image for our app from the Dockerfile sh c yarn install yarn run dev the command We re starting a shell using sh alpine doesn t have bash and running yarn install to install all dependencies and then running yarn run dev If we look in the package json we ll see that the dev script is starting nodemon 1 You can watch the logs using docker logs f container id You ll know you re ready to go when you see this bash docker logs f container id nodemon src index js nodemon 2 0 20 nodemon to restart at any time enter rs nodemon watching path s nodemon watching extensions js mjs json nodemon starting node src index js Using sqlite database at etc todos todo db Listening on port 3000 When you re done watching the logs exit out by hitting Ctrl C 1 Now let s make a change to the app In the src static js app js file let s change the Add Item button to simply say Add This change will be on line 109 remember to save the file diff submitting Adding Add Item submitting Adding Add 1 Simply refresh the page or open it and you should see the change reflected in the browser almost immediately It might take a few seconds for the Node server to restart so if you get an error just try refreshing after a few seconds Screenshot of updated label for Add button updated add button png style width 75 text center 1 Feel free to make any other changes you d like to make When you re done stop the container and build your new image using docker build t getting started Using bind mounts is very common for local development setups The advantage is that the dev machine doesn t need to have all of the build tools and environments installed With a single docker run command the dev environment is pulled and ready to go We ll talk about Docker Compose in a future step as this will help simplify our commands we re already getting a lot of flags Recap At this point we can persist our database and respond rapidly to the needs and demands of our investors and founders Hooray But guess what We received great news Your project has been selected for future development In order to prepare for production we need to migrate our database from working in SQLite to something that can scale a little better For simplicity we ll keep with a relational database and switch our application to use MySQL But how should we run MySQL How do we allow the containers to talk to each other We ll talk about that next |
docker bash docker scan getting started When you have built an image it is good practice to scan it for security vulnerabilities using the command For example to scan the image you created earlier in the tutorial you can just type Docker has partnered with to provide the vulnerability scanning service Security Scanning | ## Security Scanning
When you have built an image, it is good practice to scan it for security vulnerabilities using the `docker scan` command.
Docker has partnered with [Snyk](http://snyk.io) to provide the vulnerability scanning service.
For example, to scan the `getting-started` image you created earlier in the tutorial, you can just type
```bash
docker scan getting-started
```
The scan uses a constantly updated database of vulnerabilities, so the output you see will vary as new
vulnerabilities are discovered, but it might look something like this:
```plaintext
✗ Low severity vulnerability found in freetype/freetype
Description: CVE-2020-15999
Info: https://snyk.io/vuln/SNYK-ALPINE310-FREETYPE-1019641
Introduced through: freetype/[email protected], gd/[email protected]
From: freetype/[email protected]
From: gd/[email protected] > freetype/[email protected]
Fixed in: 2.10.0-r1
✗ Medium severity vulnerability found in libxml2/libxml2
Description: Out-of-bounds Read
Info: https://snyk.io/vuln/SNYK-ALPINE310-LIBXML2-674791
Introduced through: libxml2/[email protected], libxslt/[email protected], nginx-module-xslt/[email protected]
From: libxml2/[email protected]
From: libxslt/[email protected] > libxml2/[email protected]
From: nginx-module-xslt/[email protected] > libxml2/[email protected]
Fixed in: 2.9.9-r4
```
The output lists the type of vulnerability, a URL to learn more, and importantly which version of the relevant library
fixes the vulnerability.
There are several other options, which you can read about in the [docker scan documentation](https://docs.docker.com/engine/scan/).
As well as scanning your newly built image on the command line, you can also [configure Docker Hub](https://docs.docker.com/docker-hub/vulnerability-scanning/)
to scan all newly pushed images automatically, and you can then see the results in both Docker Hub and Docker Desktop.
![Hub vulnerability scanning](hvs.png){: style=width:75% }
{: .text-center }
## Image Layering
Did you know that you can look at how an image is composed? Using the `docker image history`
command, you can see the command that was used to create each layer within an image.
1. Use the `docker image history` command to see the layers in the `getting-started` image you
created earlier in the tutorial.
```bash
docker image history getting-started
```
You should get output that looks something like this (dates/IDs may be different).
```plaintext
IMAGE CREATED CREATED BY SIZE COMMENT
05bd8640b718 53 minutes ago CMD ["node" "src/index.js"] 0B buildkit.dockerfile.v0
<missing> 53 minutes ago RUN /bin/sh -c yarn install --production # b… 83.3MB buildkit.dockerfile.v0
<missing> 53 minutes ago COPY . . # buildkit 4.59MB buildkit.dockerfile.v0
<missing> 55 minutes ago WORKDIR /app 0B buildkit.dockerfile.v0
<missing> 10 days ago /bin/sh -c #(nop) CMD ["node"] 0B
<missing> 10 days ago /bin/sh -c #(nop) ENTRYPOINT ["docker-entry… 0B
<missing> 10 days ago /bin/sh -c #(nop) COPY file:4d192565a7220e13… 388B
<missing> 10 days ago /bin/sh -c apk add --no-cache --virtual .bui… 7.85MB
<missing> 10 days ago /bin/sh -c #(nop) ENV YARN_VERSION=1.22.19 0B
<missing> 10 days ago /bin/sh -c addgroup -g 1000 node && addu… 152MB
<missing> 10 days ago /bin/sh -c #(nop) ENV NODE_VERSION=18.12.1 0B
<missing> 11 days ago /bin/sh -c #(nop) CMD ["/bin/sh"] 0B
<missing> 11 days ago /bin/sh -c #(nop) ADD file:57d621536158358b1… 5.29MB
```
Each line represents a layer in the image. The display here shows the base at the bottom with
the newest layer at the top. Using this you can also quickly see the size of each layer, helping to
diagnose large images.
1. You'll notice that several of the lines are truncated. If you add the `--no-trunc` flag, you'll get the
full output (yes... funny how you use a truncated flag to get untruncated output, huh?)
```bash
docker image history --no-trunc getting-started
```
## Layer Caching
Now that you've seen the layering in action, there's an important lesson to learn to help decrease build
times for your container images.
> Once a layer changes, all downstream layers have to be recreated as well
Let's look at the Dockerfile we were using one more time...
```dockerfile
FROM node:18-alpine
WORKDIR /app
COPY . .
RUN yarn install --production
CMD ["node", "src/index.js"]
```
Going back to the image history output, we see that each command in the Dockerfile becomes a new layer in the image.
You might remember that when we made a change to the image, the yarn dependencies had to be reinstalled. Is there a
way to fix this? It doesn't make much sense to ship around the same dependencies every time we build, right?
To fix this, we need to restructure our Dockerfile to help support the caching of the dependencies. For Node-based
applications, those dependencies are defined in the `package.json` file. So what if we start by copying only that file in first,
install the dependencies, and _then_ copy in everything else? Then, we only recreate the yarn dependencies if there was
a change to the `package.json`. Make sense?
1. Update the Dockerfile to copy in the `package.json` first, install dependencies, and then copy everything else in.
```dockerfile hl_lines="3 4 5"
FROM node:18-alpine
WORKDIR /app
COPY package.json yarn.lock ./
RUN yarn install --production
COPY . .
CMD ["node", "src/index.js"]
```
1. Create a file named `.dockerignore` in the same folder as the Dockerfile with the following contents.
```ignore
node_modules
```
`.dockerignore` files are an easy way to selectively copy only image relevant files.
You can read more about this
[here](https://docs.docker.com/engine/reference/builder/#dockerignore-file).
In this case, the `node_modules` folder should be omitted in the second `COPY` step because otherwise
it would possibly overwrite files which were created by the command in the `RUN` step.
For further details on why this is recommended for Node.js applications as well as further best practices,
have a look at their guide on
[Dockerizing a Node.js web app](https://nodejs.org/en/docs/guides/nodejs-docker-webapp/).
1. Build a new image using `docker build`.
```bash
docker build -t getting-started .
```
You should see output like this...
```plaintext
[+] Building 16.1s (10/10) FINISHED
=> [internal] load build definition from Dockerfile 0.0s
=> => transferring dockerfile: 175B 0.0s
=> [internal] load .dockerignore 0.0s
=> => transferring context: 2B 0.0s
=> [internal] load metadata for docker.io/library/node:18-alpine 0.0s
=> [internal] load build context 0.8s
=> => transferring context: 53.37MB 0.8s
=> [1/5] FROM docker.io/library/node:18-alpine 0.0s
=> CACHED [2/5] WORKDIR /app 0.0s
=> [3/5] COPY package.json yarn.lock ./ 0.2s
=> [4/5] RUN yarn install --production 14.0s
=> [5/5] COPY . . 0.5s
=> exporting to image 0.6s
=> => exporting layers 0.6s
=> => writing image sha256:d6f819013566c54c50124ed94d5e66c452325327217f4f04399b45f94e37d25 0.0s
=> => naming to docker.io/library/getting-started 0.0s
```
You'll see that all layers were rebuilt. Perfectly fine since we changed the Dockerfile quite a bit.
1. Now, make a change to the `src/static/index.html` file (like change the `<title>` to say "The Awesome Todo App").
1. Build the Docker image now using `docker build -t getting-started .` again. This time, your output should look a little different.
```plaintext hl_lines="10 11 12"
[+] Building 1.2s (10/10) FINISHED
=> [internal] load build definition from Dockerfile 0.0s
=> => transferring dockerfile: 37B 0.0s
=> [internal] load .dockerignore 0.0s
=> => transferring context: 2B 0.0s
=> [internal] load metadata for docker.io/library/node:18-alpine 0.0s
=> [internal] load build context 0.2s
=> => transferring context: 450.43kB 0.2s
=> [1/5] FROM docker.io/library/node:18-alpine 0.0s
=> CACHED [2/5] WORKDIR /app 0.0s
=> CACHED [3/5] COPY package.json yarn.lock ./ 0.0s
=> CACHED [4/5] RUN yarn install --production 0.0s
=> [5/5] COPY . . 0.5s
=> exporting to image 0.3s
=> => exporting layers 0.3s
=> => writing image sha256:91790c87bcb096a83c2bd4eb512bc8b134c757cda0bdee4038187f98148e2eda 0.0s
=> => naming to docker.io/library/getting-started 0.0s
```
First off, you should notice that the build was MUCH faster! You'll see that several steps are using
previously cached layers. So, hooray! We're using the build cache. Pushing and pulling this image and updates to it
will be much faster as well. Hooray!
## Multi-Stage Builds
While we're not going to dive into it too much in this tutorial, multi-stage builds are an incredibly powerful
tool which help us by using multiple stages to create an image. They offer several advantages including:
- Separate build-time dependencies from runtime dependencies
- Reduce overall image size by shipping _only_ what your app needs to run
### Maven/Tomcat Example
When building Java-based applications, a JDK is needed to compile the source code to Java bytecode. However,
that JDK isn't needed in production. You might also be using tools such as Maven or Gradle to help build the app.
Those also aren't needed in our final image. Multi-stage builds help.
```dockerfile
FROM maven AS build
WORKDIR /app
COPY . .
RUN mvn package
FROM tomcat
COPY --from=build /app/target/file.war /usr/local/tomcat/webapps
```
In this example, we use one stage (called `build`) to perform the actual Java build with Maven. In the second
stage (starting at `FROM tomcat`), we copy in files from the `build` stage. The final image is only the last stage
being created (which can be overridden using the `--target` flag).
### React Example
When building React applications, we need a Node environment to compile the JS code (typically JSX), SASS stylesheets,
and more into static HTML, JS, and CSS. Although if we aren't performing server-side rendering, we don't even need a Node environment
for our production build. Why not ship the static resources in a static nginx container?
```dockerfile
FROM node:18 AS build
WORKDIR /app
COPY package* yarn.lock ./
RUN yarn install
COPY public ./public
COPY src ./src
RUN yarn run build
FROM nginx:alpine
COPY --from=build /app/build /usr/share/nginx/html
```
Here, we are using a `node:18` image to perform the build (maximizing layer caching) and then copying the output
into an nginx container. Cool, huh?
## Recap
By understanding a little bit about how images are structured, we can build images faster and ship fewer changes.
Scanning images gives us confidence that the containers we are running and distributing are secure.
Multi-stage builds also help us reduce overall image size and increase final container security by separating
build-time dependencies from runtime dependencies. | docker | Security Scanning When you have built an image it is good practice to scan it for security vulnerabilities using the docker scan command Docker has partnered with Snyk http snyk io to provide the vulnerability scanning service For example to scan the getting started image you created earlier in the tutorial you can just type bash docker scan getting started The scan uses a constantly updated database of vulnerabilities so the output you see will vary as new vulnerabilities are discovered but it might look something like this plaintext Low severity vulnerability found in freetype freetype Description CVE 2020 15999 Info https snyk io vuln SNYK ALPINE310 FREETYPE 1019641 Introduced through freetype freetype 2 10 0 r0 gd libgd 2 2 5 r2 From freetype freetype 2 10 0 r0 From gd libgd 2 2 5 r2 freetype freetype 2 10 0 r0 Fixed in 2 10 0 r1 Medium severity vulnerability found in libxml2 libxml2 Description Out of bounds Read Info https snyk io vuln SNYK ALPINE310 LIBXML2 674791 Introduced through libxml2 libxml2 2 9 9 r3 libxslt libxslt 1 1 33 r3 nginx module xslt nginx module xslt 1 17 9 r1 From libxml2 libxml2 2 9 9 r3 From libxslt libxslt 1 1 33 r3 libxml2 libxml2 2 9 9 r3 From nginx module xslt nginx module xslt 1 17 9 r1 libxml2 libxml2 2 9 9 r3 Fixed in 2 9 9 r4 The output lists the type of vulnerability a URL to learn more and importantly which version of the relevant library fixes the vulnerability There are several other options which you can read about in the docker scan documentation https docs docker com engine scan As well as scanning your newly built image on the command line you can also configure Docker Hub https docs docker com docker hub vulnerability scanning to scan all newly pushed images automatically and you can then see the results in both Docker Hub and Docker Desktop Hub vulnerability scanning hvs png style width 75 text center Image Layering Did you know that you can look at how an image is composed Using the docker image history command you can see the command that was used to create each layer within an image 1 Use the docker image history command to see the layers in the getting started image you created earlier in the tutorial bash docker image history getting started You should get output that looks something like this dates IDs may be different plaintext IMAGE CREATED CREATED BY SIZE COMMENT 05bd8640b718 53 minutes ago CMD node src index js 0B buildkit dockerfile v0 missing 53 minutes ago RUN bin sh c yarn install production b 83 3MB buildkit dockerfile v0 missing 53 minutes ago COPY buildkit 4 59MB buildkit dockerfile v0 missing 55 minutes ago WORKDIR app 0B buildkit dockerfile v0 missing 10 days ago bin sh c nop CMD node 0B missing 10 days ago bin sh c nop ENTRYPOINT docker entry 0B missing 10 days ago bin sh c nop COPY file 4d192565a7220e13 388B missing 10 days ago bin sh c apk add no cache virtual bui 7 85MB missing 10 days ago bin sh c nop ENV YARN VERSION 1 22 19 0B missing 10 days ago bin sh c addgroup g 1000 node addu 152MB missing 10 days ago bin sh c nop ENV NODE VERSION 18 12 1 0B missing 11 days ago bin sh c nop CMD bin sh 0B missing 11 days ago bin sh c nop ADD file 57d621536158358b1 5 29MB Each line represents a layer in the image The display here shows the base at the bottom with the newest layer at the top Using this you can also quickly see the size of each layer helping to diagnose large images 1 You ll notice that several of the lines are truncated If you add the no trunc flag you ll get the full output yes funny how you use a truncated flag to get untruncated output huh bash docker image history no trunc getting started Layer Caching Now that you ve seen the layering in action there s an important lesson to learn to help decrease build times for your container images Once a layer changes all downstream layers have to be recreated as well Let s look at the Dockerfile we were using one more time dockerfile FROM node 18 alpine WORKDIR app COPY RUN yarn install production CMD node src index js Going back to the image history output we see that each command in the Dockerfile becomes a new layer in the image You might remember that when we made a change to the image the yarn dependencies had to be reinstalled Is there a way to fix this It doesn t make much sense to ship around the same dependencies every time we build right To fix this we need to restructure our Dockerfile to help support the caching of the dependencies For Node based applications those dependencies are defined in the package json file So what if we start by copying only that file in first install the dependencies and then copy in everything else Then we only recreate the yarn dependencies if there was a change to the package json Make sense 1 Update the Dockerfile to copy in the package json first install dependencies and then copy everything else in dockerfile hl lines 3 4 5 FROM node 18 alpine WORKDIR app COPY package json yarn lock RUN yarn install production COPY CMD node src index js 1 Create a file named dockerignore in the same folder as the Dockerfile with the following contents ignore node modules dockerignore files are an easy way to selectively copy only image relevant files You can read more about this here https docs docker com engine reference builder dockerignore file In this case the node modules folder should be omitted in the second COPY step because otherwise it would possibly overwrite files which were created by the command in the RUN step For further details on why this is recommended for Node js applications as well as further best practices have a look at their guide on Dockerizing a Node js web app https nodejs org en docs guides nodejs docker webapp 1 Build a new image using docker build bash docker build t getting started You should see output like this plaintext Building 16 1s 10 10 FINISHED internal load build definition from Dockerfile 0 0s transferring dockerfile 175B 0 0s internal load dockerignore 0 0s transferring context 2B 0 0s internal load metadata for docker io library node 18 alpine 0 0s internal load build context 0 8s transferring context 53 37MB 0 8s 1 5 FROM docker io library node 18 alpine 0 0s CACHED 2 5 WORKDIR app 0 0s 3 5 COPY package json yarn lock 0 2s 4 5 RUN yarn install production 14 0s 5 5 COPY 0 5s exporting to image 0 6s exporting layers 0 6s writing image sha256 d6f819013566c54c50124ed94d5e66c452325327217f4f04399b45f94e37d25 0 0s naming to docker io library getting started 0 0s You ll see that all layers were rebuilt Perfectly fine since we changed the Dockerfile quite a bit 1 Now make a change to the src static index html file like change the title to say The Awesome Todo App 1 Build the Docker image now using docker build t getting started again This time your output should look a little different plaintext hl lines 10 11 12 Building 1 2s 10 10 FINISHED internal load build definition from Dockerfile 0 0s transferring dockerfile 37B 0 0s internal load dockerignore 0 0s transferring context 2B 0 0s internal load metadata for docker io library node 18 alpine 0 0s internal load build context 0 2s transferring context 450 43kB 0 2s 1 5 FROM docker io library node 18 alpine 0 0s CACHED 2 5 WORKDIR app 0 0s CACHED 3 5 COPY package json yarn lock 0 0s CACHED 4 5 RUN yarn install production 0 0s 5 5 COPY 0 5s exporting to image 0 3s exporting layers 0 3s writing image sha256 91790c87bcb096a83c2bd4eb512bc8b134c757cda0bdee4038187f98148e2eda 0 0s naming to docker io library getting started 0 0s First off you should notice that the build was MUCH faster You ll see that several steps are using previously cached layers So hooray We re using the build cache Pushing and pulling this image and updates to it will be much faster as well Hooray Multi Stage Builds While we re not going to dive into it too much in this tutorial multi stage builds are an incredibly powerful tool which help us by using multiple stages to create an image They offer several advantages including Separate build time dependencies from runtime dependencies Reduce overall image size by shipping only what your app needs to run Maven Tomcat Example When building Java based applications a JDK is needed to compile the source code to Java bytecode However that JDK isn t needed in production You might also be using tools such as Maven or Gradle to help build the app Those also aren t needed in our final image Multi stage builds help dockerfile FROM maven AS build WORKDIR app COPY RUN mvn package FROM tomcat COPY from build app target file war usr local tomcat webapps In this example we use one stage called build to perform the actual Java build with Maven In the second stage starting at FROM tomcat we copy in files from the build stage The final image is only the last stage being created which can be overridden using the target flag React Example When building React applications we need a Node environment to compile the JS code typically JSX SASS stylesheets and more into static HTML JS and CSS Although if we aren t performing server side rendering we don t even need a Node environment for our production build Why not ship the static resources in a static nginx container dockerfile FROM node 18 AS build WORKDIR app COPY package yarn lock RUN yarn install COPY public public COPY src src RUN yarn run build FROM nginx alpine COPY from build app build usr share nginx html Here we are using a node 18 image to perform the build maximizing layer caching and then copying the output into an nginx container Cool huh Recap By understanding a little bit about how images are structured we can build images faster and ship fewer changes Scanning images gives us confidence that the containers we are running and distributing are secure Multi stage builds also help us reduce overall image size and increase final container security by separating build time dependencies from runtime dependencies |
docker The Container s Filesystem When a container runs it uses the various layers from an image for its filesystem changes won t be seen in another container even if they are using the same image we launch the container Why is this Let s dive into how the container is working In case you didn t notice our todo list is being wiped clean every single time Each container also gets its own scratch space to create update remove files Any |
In case you didn't notice, our todo list is being wiped clean every single time
we launch the container. Why is this? Let's dive into how the container is working.
## The Container's Filesystem
When a container runs, it uses the various layers from an image for its filesystem.
Each container also gets its own "scratch space" to create/update/remove files. Any
changes won't be seen in another container, _even if_ they are using the same image.
### Seeing this in Practice
To see this in action, we're going to start two containers and create a file in each.
What you'll see is that the files created in one container aren't available in another.
1. Start a `ubuntu` container that will create a file named `/data.txt` with a random number
between 1 and 10000.
```bash
docker run -d ubuntu bash -c "shuf -i 1-10000 -n 1 -o /data.txt && tail -f /dev/null"
```
In case you're curious about the command, we're starting a bash shell and invoking two
commands (why we have the `&&`). The first portion picks a single random number and writes
it to `/data.txt`. The second command is simply watching a file to keep the container running.
1. Validate we can see the output by `exec`'ing into the container. To do so, open the Dashboard, find your Ubuntu container, click on the "triple dot" menu to get additional actions, and click on the "Open in terminal" menu item.
![Dashboard open CLI into ubuntu container](dashboard-open-cli-ubuntu.png){: style=width:75% }
{: .text-center }
You will see a terminal that is running a shell in the ubuntu container. Run the following command to see the content of the `/data.txt` file. Close this terminal afterwards again.
```bash
cat /data.txt
```
If you prefer the command line you can use the `docker exec` command to do the same. You need to get the
container's ID (use `docker ps` to get it) and get the content with the following command.
```bash
docker exec <container-id> cat /data.txt
```
You should see a random number!
1. Now, let's start another `ubuntu` container (the same image) and we'll see we don't have the same
file.
```bash
docker run -it ubuntu ls /
```
And look! There's no `data.txt` file there! That's because it was written to the scratch space for
only the first container.
1. Go ahead and remove the first container using the `docker rm -f <container-id>` command.
```bash
docker rm -f <container-id>
```
## Container Volumes
With the previous experiment, we saw that each container starts from the image definition each time it starts.
While containers can create, update, and delete files, those changes are lost when the container is removed
and all changes are isolated to that container. With volumes, we can change all of this.
[Volumes](https://docs.docker.com/storage/volumes/) provide the ability to connect specific filesystem paths of
the container back to the host machine. If a directory in the container is mounted, changes in that
directory are also seen on the host machine. If we mount that same directory across container restarts, we'd see
the same files.
There are two main types of volumes. We will eventually use both, but we will start with **named volumes**.
## Persisting our Todo Data
By default, the todo app stores its data in a [SQLite Database](https://www.sqlite.org/index.html) at
`/etc/todos/todo.db`. If you're not familiar with SQLite, no worries! It's simply a relational database in
which all of the data is stored in a single file. While this isn't the best for large-scale applications,
it works for small demos. We'll talk about switching this to a different database engine later.
With the database being a single file, if we can persist that file on the host and make it available to the
next container, it should be able to pick up where the last one left off. By creating a volume and attaching
(often called "mounting") it to the directory the data is stored in, we can persist the data. As our container
writes to the `todo.db` file, it will be persisted to the host in the volume.
As mentioned, we are going to use a **named volume**. Think of a named volume as simply a bucket of data.
Docker maintains the physical location on the disk and you only need to remember the name of the volume.
Every time you use the volume, Docker will make sure the correct data is provided.
1. Create a volume by using the `docker volume create` command.
```bash
docker volume create todo-db
```
1. Stop the todo app container once again in the Dashboard (or with `docker rm -f <container-id>`), as it is still running without using the persistent volume.
1. Start the todo app container, but add the `-v` flag to specify a volume mount. We will use the named volume and mount
it to `/etc/todos`, which will capture all files created at the path.
```bash
docker run -dp 3000:3000 -v todo-db:/etc/todos getting-started
```
1. Once the container starts up, open the app and add a few items to your todo list.
![Items added to todo list](items-added.png){: style="width: 55%; " }
{: .text-center }
1. Remove the container for the todo app. Use the Dashboard or `docker ps` to get the ID and then `docker rm -f <container-id>` to remove it.
1. Start a new container using the same command from above.
1. Open the app. You should see your items still in your list!
1. Go ahead and remove the container when you're done checking out your list.
Hooray! You've now learned how to persist data!
!!! info "Pro-tip"
While named volumes and bind mounts (which we'll talk about in a minute) are the two main types of volumes supported
by a default Docker engine installation, there are many volume driver plugins available to support NFS, SFTP, NetApp,
and more! This will be especially important once you start running containers on multiple hosts in a clustered
environment with Swarm, Kubernetes, etc.
## Diving into our Volume
A lot of people frequently ask "Where is Docker _actually_ storing my data when I use a named volume?" If you want to know,
you can use the `docker volume inspect` command.
```bash
docker volume inspect todo-db
[
{
"CreatedAt": "2019-09-26T02:18:36Z",
"Driver": "local",
"Labels": {},
"Mountpoint": "/var/lib/docker/volumes/todo-db/_data",
"Name": "todo-db",
"Options": {},
"Scope": "local"
}
]
```
The `Mountpoint` is the actual location on the disk where the data is stored. Note that on most machines, you will
need to have root access to access this directory from the host. But, that's where it is!
!!! info "Accessing Volume data directly on Docker Desktop"
While running in Docker Desktop, the Docker commands are actually running inside a small VM on your machine.
If you wanted to look at the actual contents of the Mountpoint directory, you would need to first get inside
of the VM.
## Recap
At this point, we have a functioning application that can survive restarts! We can show it off to our investors and
hope they can catch our vision!
However, we saw earlier that rebuilding images for every change takes quite a bit of time. There's got to be a better
way to make changes, right? With bind mounts (which we hinted at earlier), there is a better way! Let's take a look at that now! | docker | In case you didn t notice our todo list is being wiped clean every single time we launch the container Why is this Let s dive into how the container is working The Container s Filesystem When a container runs it uses the various layers from an image for its filesystem Each container also gets its own scratch space to create update remove files Any changes won t be seen in another container even if they are using the same image Seeing this in Practice To see this in action we re going to start two containers and create a file in each What you ll see is that the files created in one container aren t available in another 1 Start a ubuntu container that will create a file named data txt with a random number between 1 and 10000 bash docker run d ubuntu bash c shuf i 1 10000 n 1 o data txt tail f dev null In case you re curious about the command we re starting a bash shell and invoking two commands why we have the The first portion picks a single random number and writes it to data txt The second command is simply watching a file to keep the container running 1 Validate we can see the output by exec ing into the container To do so open the Dashboard find your Ubuntu container click on the triple dot menu to get additional actions and click on the Open in terminal menu item Dashboard open CLI into ubuntu container dashboard open cli ubuntu png style width 75 text center You will see a terminal that is running a shell in the ubuntu container Run the following command to see the content of the data txt file Close this terminal afterwards again bash cat data txt If you prefer the command line you can use the docker exec command to do the same You need to get the container s ID use docker ps to get it and get the content with the following command bash docker exec container id cat data txt You should see a random number 1 Now let s start another ubuntu container the same image and we ll see we don t have the same file bash docker run it ubuntu ls And look There s no data txt file there That s because it was written to the scratch space for only the first container 1 Go ahead and remove the first container using the docker rm f container id command bash docker rm f container id Container Volumes With the previous experiment we saw that each container starts from the image definition each time it starts While containers can create update and delete files those changes are lost when the container is removed and all changes are isolated to that container With volumes we can change all of this Volumes https docs docker com storage volumes provide the ability to connect specific filesystem paths of the container back to the host machine If a directory in the container is mounted changes in that directory are also seen on the host machine If we mount that same directory across container restarts we d see the same files There are two main types of volumes We will eventually use both but we will start with named volumes Persisting our Todo Data By default the todo app stores its data in a SQLite Database https www sqlite org index html at etc todos todo db If you re not familiar with SQLite no worries It s simply a relational database in which all of the data is stored in a single file While this isn t the best for large scale applications it works for small demos We ll talk about switching this to a different database engine later With the database being a single file if we can persist that file on the host and make it available to the next container it should be able to pick up where the last one left off By creating a volume and attaching often called mounting it to the directory the data is stored in we can persist the data As our container writes to the todo db file it will be persisted to the host in the volume As mentioned we are going to use a named volume Think of a named volume as simply a bucket of data Docker maintains the physical location on the disk and you only need to remember the name of the volume Every time you use the volume Docker will make sure the correct data is provided 1 Create a volume by using the docker volume create command bash docker volume create todo db 1 Stop the todo app container once again in the Dashboard or with docker rm f container id as it is still running without using the persistent volume 1 Start the todo app container but add the v flag to specify a volume mount We will use the named volume and mount it to etc todos which will capture all files created at the path bash docker run dp 3000 3000 v todo db etc todos getting started 1 Once the container starts up open the app and add a few items to your todo list Items added to todo list items added png style width 55 text center 1 Remove the container for the todo app Use the Dashboard or docker ps to get the ID and then docker rm f container id to remove it 1 Start a new container using the same command from above 1 Open the app You should see your items still in your list 1 Go ahead and remove the container when you re done checking out your list Hooray You ve now learned how to persist data info Pro tip While named volumes and bind mounts which we ll talk about in a minute are the two main types of volumes supported by a default Docker engine installation there are many volume driver plugins available to support NFS SFTP NetApp and more This will be especially important once you start running containers on multiple hosts in a clustered environment with Swarm Kubernetes etc Diving into our Volume A lot of people frequently ask Where is Docker actually storing my data when I use a named volume If you want to know you can use the docker volume inspect command bash docker volume inspect todo db CreatedAt 2019 09 26T02 18 36Z Driver local Labels Mountpoint var lib docker volumes todo db data Name todo db Options Scope local The Mountpoint is the actual location on the disk where the data is stored Note that on most machines you will need to have root access to access this directory from the host But that s where it is info Accessing Volume data directly on Docker Desktop While running in Docker Desktop the Docker commands are actually running inside a small VM on your machine If you wanted to look at the actual contents of the Mountpoint directory you would need to first get inside of the VM Recap At this point we have a functioning application that can survive restarts We can show it off to our investors and hope they can catch our vision However we saw earlier that rebuilding images for every change takes quite a bit of time There s got to be a better way to make changes right With bind mounts which we hinted at earlier there is a better way Let s take a look at that now |
docker For the rest of this tutorial we will be working with a simple todo building an app to prove out your MVP minimum viable product You want to show how it works and what it s capable of doing without needing to list manager that is running in Node js If you re not familiar with Node js At this point your development team is quite small and you re simply think about how it will work for a large team multiple developers etc don t worry No real JavaScript experience is needed |
For the rest of this tutorial, we will be working with a simple todo
list manager that is running in Node.js. If you're not familiar with Node.js,
don't worry! No real JavaScript experience is needed!
At this point, your development team is quite small and you're simply
building an app to prove out your MVP (minimum viable product). You want
to show how it works and what it's capable of doing without needing to
think about how it will work for a large team, multiple developers, etc.
![Todo List Manager Screenshot](todo-list-sample.png){: style="width:50%;" }
{ .text-center }
## Getting our App
Before we can run the application, we need to get the application source code onto
our machine. For real projects, you will typically clone the repo. But, for this tutorial,
we have created a ZIP file containing the application.
1. [Download the ZIP](/assets/app.zip). Open the ZIP file and make sure you extract the
contents.
1. Once extracted, use your favorite code editor to open the project. If you're in need of
an editor, you can use [Visual Studio Code](https://code.visualstudio.com/). You should
see the `package.json` and two subdirectories (`src` and `spec`).
![Screenshot of Visual Studio Code opened with the app loaded](ide-screenshot.png){: style="width:650px;margin-top:20px;"}
{: .text-center }
## Building the App's Container Image
In order to build the application, we need to use a `Dockerfile`. A
Dockerfile is simply a text-based script of instructions that is used to
create a container image. If you've created Dockerfiles before, you might
see a few flaws in the Dockerfile below. But, don't worry! We'll go over them.
1. Create a file named `Dockerfile` in the same folder as the file `package.json` with the following contents.
```dockerfile
FROM node:18-alpine
WORKDIR /app
COPY . .
RUN yarn install --production
CMD ["node", "./src/index.js"]
```
Please check that the file `Dockerfile` has no file extension like `.txt`. Some editors may append this file extension automatically and this would result in an error in the next step.
1. If you haven't already done so, open a terminal and go to the `app` directory with the `Dockerfile`. Now build the container image using the `docker build` command.
```bash
docker build -t getting-started .
```
This command used the Dockerfile to build a new container image. You might
have noticed that a lot of "layers" were downloaded. This is because we instructed
the builder that we wanted to start from the `node:18-alpine` image. But, since we
didn't have that on our machine, that image needed to be downloaded.
After the image was downloaded, we copied in our application and used `yarn` to
install our application's dependencies. The `CMD` directive specifies the default
command to run when starting a container from this image.
Finally, the `-t` flag tags our image. Think of this simply as a human-readable name
for the final image. Since we named the image `getting-started`, we can refer to that
image when we run a container.
The `.` at the end of the `docker build` command tells that Docker should look for the `Dockerfile` in the current directory.
## Starting an App Container
Now that we have an image, let's run the application! To do so, we will use the `docker run`
command (remember that from earlier?).
1. Start your container using the `docker run` command and specify the name of the image we
just created:
```bash
docker run -dp 3000:3000 getting-started
```
Remember the `-d` and `-p` flags? We're running the new container in "detached" mode (in the
background) and creating a mapping between the host's port 3000 to the container's port 3000.
Without the port mapping, we wouldn't be able to access the application.
1. After a few seconds, open your web browser to [http://localhost:3000](http://localhost:3000).
You should see our app!
![Empty Todo List](todo-list-empty.png){: style="width:450px;margin-top:20px;"}
{: .text-center }
1. Go ahead and add an item or two and see that it works as you expect. You can mark items as
complete and remove items. Your frontend is successfully storing items in the backend!
Pretty quick and easy, huh?
At this point, you should have a running todo list manager with a few items, all built by you!
Now, let's make a few changes and learn about managing our containers.
If you take a quick look at the Docker Dashboard, you should see your two containers running now
(this tutorial and your freshly launched app container)!
![Docker Dashboard with tutorial and app containers running](dashboard-two-containers.png)
## Recap
In this short section, we learned the very basics about building a container image and created a
Dockerfile to do so. Once we built an image, we started the container and saw the running app!
Next, we're going to make a modification to our app and learn how to update our running application
with a new image. Along the way, we'll learn a few other useful commands. | docker | For the rest of this tutorial we will be working with a simple todo list manager that is running in Node js If you re not familiar with Node js don t worry No real JavaScript experience is needed At this point your development team is quite small and you re simply building an app to prove out your MVP minimum viable product You want to show how it works and what it s capable of doing without needing to think about how it will work for a large team multiple developers etc Todo List Manager Screenshot todo list sample png style width 50 text center Getting our App Before we can run the application we need to get the application source code onto our machine For real projects you will typically clone the repo But for this tutorial we have created a ZIP file containing the application 1 Download the ZIP assets app zip Open the ZIP file and make sure you extract the contents 1 Once extracted use your favorite code editor to open the project If you re in need of an editor you can use Visual Studio Code https code visualstudio com You should see the package json and two subdirectories src and spec Screenshot of Visual Studio Code opened with the app loaded ide screenshot png style width 650px margin top 20px text center Building the App s Container Image In order to build the application we need to use a Dockerfile A Dockerfile is simply a text based script of instructions that is used to create a container image If you ve created Dockerfiles before you might see a few flaws in the Dockerfile below But don t worry We ll go over them 1 Create a file named Dockerfile in the same folder as the file package json with the following contents dockerfile FROM node 18 alpine WORKDIR app COPY RUN yarn install production CMD node src index js Please check that the file Dockerfile has no file extension like txt Some editors may append this file extension automatically and this would result in an error in the next step 1 If you haven t already done so open a terminal and go to the app directory with the Dockerfile Now build the container image using the docker build command bash docker build t getting started This command used the Dockerfile to build a new container image You might have noticed that a lot of layers were downloaded This is because we instructed the builder that we wanted to start from the node 18 alpine image But since we didn t have that on our machine that image needed to be downloaded After the image was downloaded we copied in our application and used yarn to install our application s dependencies The CMD directive specifies the default command to run when starting a container from this image Finally the t flag tags our image Think of this simply as a human readable name for the final image Since we named the image getting started we can refer to that image when we run a container The at the end of the docker build command tells that Docker should look for the Dockerfile in the current directory Starting an App Container Now that we have an image let s run the application To do so we will use the docker run command remember that from earlier 1 Start your container using the docker run command and specify the name of the image we just created bash docker run dp 3000 3000 getting started Remember the d and p flags We re running the new container in detached mode in the background and creating a mapping between the host s port 3000 to the container s port 3000 Without the port mapping we wouldn t be able to access the application 1 After a few seconds open your web browser to http localhost 3000 http localhost 3000 You should see our app Empty Todo List todo list empty png style width 450px margin top 20px text center 1 Go ahead and add an item or two and see that it works as you expect You can mark items as complete and remove items Your frontend is successfully storing items in the backend Pretty quick and easy huh At this point you should have a running todo list manager with a few items all built by you Now let s make a few changes and learn about managing our containers If you take a quick look at the Docker Dashboard you should see your two containers running now this tutorial and your freshly launched app container Docker Dashboard with tutorial and app containers running dashboard two containers png Recap In this short section we learned the very basics about building a container image and created a Dockerfile to do so Once we built an image we started the container and saw the running app Next we re going to make a modification to our app and learn how to update our running application with a new image Along the way we ll learn a few other useful commands |
docker for the database in production You don t want to ship your database engine with your app then There s a good chance you d have to scale APIs and front ends differently than databases While you may use a container for the database locally you may want to use a managed service Up to this point we have been working with single container apps But we now want to add MySQL to the application stack The following question often arises Where will MySQL run Install it in the same Separate containers let you version and update versions in isolation reasons container or run it separately In general each container should do one thing and do it well A few |
Up to this point, we have been working with single container apps. But, we now want to add MySQL to the
application stack. The following question often arises - "Where will MySQL run? Install it in the same
container or run it separately?" In general, **each container should do one thing and do it well.** A few
reasons:
- There's a good chance you'd have to scale APIs and front-ends differently than databases.
- Separate containers let you version and update versions in isolation.
- While you may use a container for the database locally, you may want to use a managed service
for the database in production. You don't want to ship your database engine with your app then.
- Running multiple processes will require a process manager (the container only starts one process),
which adds complexity to container startup/shutdown.
And there are more reasons. So, we will update our application to work like this:
![Todo App connected to MySQL container](multi-app-architecture.png)
{: .text-center }
## Container Networking
Remember that containers, by default, run in isolation and don't know anything about other processes
or containers on the same machine. So, how do we allow one container to talk to another? The answer is
**networking**. Now, you don't have to be a network engineer (hooray!). Simply remember this rule...
> If two containers are on the same network, they can talk to each other. If they aren't, they can't.
## Starting MySQL
There are two ways to put a container on a network: 1) Assign it at start or 2) connect an existing container.
For now, we will create the network first and attach the MySQL container at startup.
1. Create the network.
```bash
docker network create todo-app
```
1. Start a MySQL container and attach it to the network. We're also going to define a few environment variables that the
database will use to initialize the database (see the "Environment Variables" section in the [MySQL Docker Hub listing](https://hub.docker.com/_/mysql/)).
```bash
docker run -d \
--network todo-app --network-alias mysql \
-v todo-mysql-data:/var/lib/mysql \
-e MYSQL_ROOT_PASSWORD=secret \
-e MYSQL_DATABASE=todos \
mysql:8.0
```
If you are using PowerShell then use this command.
```powershell
docker run -d `
--network todo-app --network-alias mysql `
-v todo-mysql-data:/var/lib/mysql `
-e MYSQL_ROOT_PASSWORD=secret `
-e MYSQL_DATABASE=todos `
mysql:8.0
```
You'll also see we specified the `--network-alias` flag. We'll come back to that in just a moment.
!!! info "Pro-tip"
You'll notice we're using a volume named `todo-mysql-data` here and mounting it at `/var/lib/mysql`, which is
where MySQL stores its data. However, we never ran a `docker volume create` command. Docker recognizes we want
to use a named volume and creates one automatically for us.
1. To confirm we have the database up and running, connect to the database and verify it connects.
```bash
docker exec -it <mysql-container-id> mysql -p
```
When the password prompt comes up, type in **secret**. In the MySQL shell, list the databases and verify
you see the `todos` database.
```cli
mysql> SHOW DATABASES;
```
You should see output that looks like this:
```plaintext
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| sys |
| todos |
+--------------------+
5 rows in set (0.00 sec)
```
Hooray! We have our `todos` database and it's ready for us to use!
To exit the sql terminal type `exit` in the terminal.
## Connecting to MySQL
Now that we know MySQL is up and running, let's use it! But, the question is... how? If we run
another container on the same network, how do we find the container (remember each container has its own IP
address)?
To figure it out, we're going to make use of the [nicolaka/netshoot](https://github.com/nicolaka/netshoot) container,
which ships with a _lot_ of tools that are useful for troubleshooting or debugging networking issues.
1. Start a new container using the nicolaka/netshoot image. Make sure to connect it to the same network.
```bash
docker run -it --network todo-app nicolaka/netshoot
```
1. Inside the container, we're going to use the `dig` command, which is a useful DNS tool. We're going to look up
the IP address for the hostname `mysql`.
```bash
dig mysql
```
And you'll get an output like this...
```text
; <<>> DiG 9.18.8 <<>> mysql
;; global options: +cmd
;; Got answer:
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 32162
;; flags: qr rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 0
;; QUESTION SECTION:
;mysql. IN A
;; ANSWER SECTION:
mysql. 600 IN A 172.23.0.2
;; Query time: 0 msec
;; SERVER: 127.0.0.11#53(127.0.0.11)
;; WHEN: Tue Oct 01 23:47:24 UTC 2019
;; MSG SIZE rcvd: 44
```
In the "ANSWER SECTION", you will see an `A` record for `mysql` that resolves to `172.23.0.2`
(your IP address will most likely have a different value). While `mysql` isn't normally a valid hostname,
Docker was able to resolve it to the IP address of the container that had that network alias (remember the
`--network-alias` flag we used earlier?).
What this means is... our app only simply needs to connect to a host named `mysql` and it'll talk to the
database! It doesn't get much simpler than that!
When you're done, run `exit` to close out of the container.
## Running our App with MySQL
The todo app supports the setting of a few environment variables to specify MySQL connection settings. They are:
- `MYSQL_HOST` - the hostname for the running MySQL server
- `MYSQL_USER` - the username to use for the connection
- `MYSQL_PASSWORD` - the password to use for the connection
- `MYSQL_DB` - the database to use once connected
!!! warning Setting Connection Settings via Env Vars
While using env vars to set connection settings is generally ok for development, it is **HIGHLY DISCOURAGED**
when running applications in production. Diogo Monica, a former lead of security at Docker,
[wrote a fantastic blog post](https://diogomonica.com/2017/03/27/why-you-shouldnt-use-env-variables-for-secret-data/)
explaining why.
A more secure mechanism is to use the secret support provided by your container orchestration framework. In most cases,
these secrets are mounted as files in the running container. You'll see many apps (including the MySQL image and the todo app)
also support env vars with a `_FILE` suffix to point to a file containing the variable.
As an example, setting the `MYSQL_PASSWORD_FILE` var will cause the app to use the contents of the referenced file
as the connection password. Docker doesn't do anything to support these env vars. Your app will need to know to look for
the variable and get the file contents.
With all of that explained, let's start our dev-ready container!
1. We'll specify each of the environment variables above, as well as connect the container to our app network.
```bash hl_lines="3 4 5 6 7"
docker run -dp 3000:3000 \
-w /app -v "$(pwd):/app" \
--network todo-app \
-e MYSQL_HOST=mysql \
-e MYSQL_USER=root \
-e MYSQL_PASSWORD=secret \
-e MYSQL_DB=todos \
node:18-alpine \
sh -c "yarn install && yarn run dev"
```
If you are using PowerShell then use this command.
```powershell hl_lines="3 4 5 6 7"
docker run -dp 3000:3000 `
-w /app -v "$(pwd):/app" `
--network todo-app `
-e MYSQL_HOST=mysql `
-e MYSQL_USER=root `
-e MYSQL_PASSWORD=secret `
-e MYSQL_DB=todos `
node:18-alpine `
sh -c "yarn install && yarn run dev"
```
1. If we look at the logs for the container (`docker logs <container-id>`), we should see a message indicating it's
using the mysql database.
```plaintext hl_lines="7"
# Previous log messages omitted
$ nodemon src/index.js
[nodemon] 2.0.20
[nodemon] to restart at any time, enter `rs`
[nodemon] watching path(s): *.*
[nodemon] watching extensions: js,mjs,json
[nodemon] starting `node src/index.js`
Connected to mysql db at host mysql
Listening on port 3000
```
1. Open the app in your browser and add a few items to your todo list.
1. Connect to the mysql database and prove that the items are being written to the database. Remember, the password
is **secret**.
```bash
docker exec -it <mysql-container-id> mysql -p todos
```
And in the mysql shell, run the following:
```plaintext
mysql> select * from todo_items;
+--------------------------------------+--------------------+-----------+
| id | name | completed |
+--------------------------------------+--------------------+-----------+
| c906ff08-60e6-44e6-8f49-ed56a0853e85 | Do amazing things! | 0 |
| 2912a79e-8486-4bc3-a4c5-460793a575ab | Be awesome! | 0 |
+--------------------------------------+--------------------+-----------+
```
Obviously, your table will look different because it has your items. But, you should see them stored there!
If you take a quick look at the Docker Dashboard, you'll see that we have two app containers running. But, there's
no real indication that they are grouped together in a single app. We'll see how to make that better shortly!
![Docker Dashboard showing two ungrouped app containers](dashboard-multi-container-app.png)
## Recap
At this point, we have an application that now stores its data in an external database running in a separate
container. We learned a little bit about container networking and saw how service discovery can be performed
using DNS.
But, there's a good chance you are starting to feel a little overwhelmed with everything you need to do to start up
this application. We have to create a network, start containers, specify all of the environment variables, expose
ports, and more! That's a lot to remember and it's certainly making things harder to pass along to someone else.
In the next section, we'll talk about Docker Compose. With Docker Compose, we can share our application stacks in a
much easier way and let others spin them up with a single (and simple) command! | docker | Up to this point we have been working with single container apps But we now want to add MySQL to the application stack The following question often arises Where will MySQL run Install it in the same container or run it separately In general each container should do one thing and do it well A few reasons There s a good chance you d have to scale APIs and front ends differently than databases Separate containers let you version and update versions in isolation While you may use a container for the database locally you may want to use a managed service for the database in production You don t want to ship your database engine with your app then Running multiple processes will require a process manager the container only starts one process which adds complexity to container startup shutdown And there are more reasons So we will update our application to work like this Todo App connected to MySQL container multi app architecture png text center Container Networking Remember that containers by default run in isolation and don t know anything about other processes or containers on the same machine So how do we allow one container to talk to another The answer is networking Now you don t have to be a network engineer hooray Simply remember this rule If two containers are on the same network they can talk to each other If they aren t they can t Starting MySQL There are two ways to put a container on a network 1 Assign it at start or 2 connect an existing container For now we will create the network first and attach the MySQL container at startup 1 Create the network bash docker network create todo app 1 Start a MySQL container and attach it to the network We re also going to define a few environment variables that the database will use to initialize the database see the Environment Variables section in the MySQL Docker Hub listing https hub docker com mysql bash docker run d network todo app network alias mysql v todo mysql data var lib mysql e MYSQL ROOT PASSWORD secret e MYSQL DATABASE todos mysql 8 0 If you are using PowerShell then use this command powershell docker run d network todo app network alias mysql v todo mysql data var lib mysql e MYSQL ROOT PASSWORD secret e MYSQL DATABASE todos mysql 8 0 You ll also see we specified the network alias flag We ll come back to that in just a moment info Pro tip You ll notice we re using a volume named todo mysql data here and mounting it at var lib mysql which is where MySQL stores its data However we never ran a docker volume create command Docker recognizes we want to use a named volume and creates one automatically for us 1 To confirm we have the database up and running connect to the database and verify it connects bash docker exec it mysql container id mysql p When the password prompt comes up type in secret In the MySQL shell list the databases and verify you see the todos database cli mysql SHOW DATABASES You should see output that looks like this plaintext Database information schema mysql performance schema sys todos 5 rows in set 0 00 sec Hooray We have our todos database and it s ready for us to use To exit the sql terminal type exit in the terminal Connecting to MySQL Now that we know MySQL is up and running let s use it But the question is how If we run another container on the same network how do we find the container remember each container has its own IP address To figure it out we re going to make use of the nicolaka netshoot https github com nicolaka netshoot container which ships with a lot of tools that are useful for troubleshooting or debugging networking issues 1 Start a new container using the nicolaka netshoot image Make sure to connect it to the same network bash docker run it network todo app nicolaka netshoot 1 Inside the container we re going to use the dig command which is a useful DNS tool We re going to look up the IP address for the hostname mysql bash dig mysql And you ll get an output like this text DiG 9 18 8 mysql global options cmd Got answer HEADER opcode QUERY status NOERROR id 32162 flags qr rd ra QUERY 1 ANSWER 1 AUTHORITY 0 ADDITIONAL 0 QUESTION SECTION mysql IN A ANSWER SECTION mysql 600 IN A 172 23 0 2 Query time 0 msec SERVER 127 0 0 11 53 127 0 0 11 WHEN Tue Oct 01 23 47 24 UTC 2019 MSG SIZE rcvd 44 In the ANSWER SECTION you will see an A record for mysql that resolves to 172 23 0 2 your IP address will most likely have a different value While mysql isn t normally a valid hostname Docker was able to resolve it to the IP address of the container that had that network alias remember the network alias flag we used earlier What this means is our app only simply needs to connect to a host named mysql and it ll talk to the database It doesn t get much simpler than that When you re done run exit to close out of the container Running our App with MySQL The todo app supports the setting of a few environment variables to specify MySQL connection settings They are MYSQL HOST the hostname for the running MySQL server MYSQL USER the username to use for the connection MYSQL PASSWORD the password to use for the connection MYSQL DB the database to use once connected warning Setting Connection Settings via Env Vars While using env vars to set connection settings is generally ok for development it is HIGHLY DISCOURAGED when running applications in production Diogo Monica a former lead of security at Docker wrote a fantastic blog post https diogomonica com 2017 03 27 why you shouldnt use env variables for secret data explaining why A more secure mechanism is to use the secret support provided by your container orchestration framework In most cases these secrets are mounted as files in the running container You ll see many apps including the MySQL image and the todo app also support env vars with a FILE suffix to point to a file containing the variable As an example setting the MYSQL PASSWORD FILE var will cause the app to use the contents of the referenced file as the connection password Docker doesn t do anything to support these env vars Your app will need to know to look for the variable and get the file contents With all of that explained let s start our dev ready container 1 We ll specify each of the environment variables above as well as connect the container to our app network bash hl lines 3 4 5 6 7 docker run dp 3000 3000 w app v pwd app network todo app e MYSQL HOST mysql e MYSQL USER root e MYSQL PASSWORD secret e MYSQL DB todos node 18 alpine sh c yarn install yarn run dev If you are using PowerShell then use this command powershell hl lines 3 4 5 6 7 docker run dp 3000 3000 w app v pwd app network todo app e MYSQL HOST mysql e MYSQL USER root e MYSQL PASSWORD secret e MYSQL DB todos node 18 alpine sh c yarn install yarn run dev 1 If we look at the logs for the container docker logs container id we should see a message indicating it s using the mysql database plaintext hl lines 7 Previous log messages omitted nodemon src index js nodemon 2 0 20 nodemon to restart at any time enter rs nodemon watching path s nodemon watching extensions js mjs json nodemon starting node src index js Connected to mysql db at host mysql Listening on port 3000 1 Open the app in your browser and add a few items to your todo list 1 Connect to the mysql database and prove that the items are being written to the database Remember the password is secret bash docker exec it mysql container id mysql p todos And in the mysql shell run the following plaintext mysql select from todo items id name completed c906ff08 60e6 44e6 8f49 ed56a0853e85 Do amazing things 0 2912a79e 8486 4bc3 a4c5 460793a575ab Be awesome 0 Obviously your table will look different because it has your items But you should see them stored there If you take a quick look at the Docker Dashboard you ll see that we have two app containers running But there s no real indication that they are grouped together in a single app We ll see how to make that better shortly Docker Dashboard showing two ungrouped app containers dashboard multi container app png Recap At this point we have an application that now stores its data in an external database running in a separate container We learned a little bit about container networking and saw how service discovery can be performed using DNS But there s a good chance you are starting to feel a little overwhelmed with everything you need to do to start up this application We have to create a network start containers specify all of the environment variables expose ports and more That s a lot to remember and it s certainly making things harder to pass along to someone else In the next section we ll talk about Docker Compose With Docker Compose we can share our application stacks in a much easier way and let others spin them up with a single and simple command |
eks Karpenter exclude true search | ---
search:
exclude: true
---
# Karpenter 모범 사례
## Karpenter
Karpenter는 unschedulable 파드에 대응하여 새 노드를 자동으로 프로비저닝하는 오픈 소스 클러스터 오토스케일러입니다. Karpenter는 pending 상태의 파드의 전체 리소스 요구 사항을 평가하고 이를 실행하기 위한 최적의 인스턴스 유형을 선택합니다. 데몬셋이 아닌 파드가 없는 인스턴스를 자동으로 확장하거나 종료하여 낭비를 줄입니다. 또한 파드를 능동적으로 이동하고 노드를 삭제하거나 더 저렴한 인스턴스 유형으로 교체하여 클러스터 비용을 절감하는 통합 기능도 지원합니다.
**Karpenter를 사용해야 하는 이유**
Karpenter가 출시되기 전에 쿠버네티스 사용자는 주로 [Amazon EC2 Auto Scaling 그룹](https://docs.aws.amazon.com/autoscaling/ec2/userguide/AutoScalingGroup.html)과 [쿠버네티스 Cluster Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler)(CA)를 사용하여 클러스터의 컴퓨팅 용량을 동적으로 조정했습니다. Karpenter를 사용하면 유연성과 다양성을 달성하기 위해 수십 개의 노드 그룹을 만들 필요가 없습니다. 게다가 Karpenter는 (CA처럼) 쿠버네티스 버전과 밀접하게 연결되어 있지 않기 때문에 AWS와 쿠버네티스 API 사이를 오갈 필요가 없습니다.
Karpenter는 단일 시스템 내 인스턴스 오케스트레이션 기능을 통합적으로 수행하며 더 간단하고 안정적이며 보다 클러스터를 잘 파악합니다. Karpenter는 다음과 같은 간소화된 방법을 제공하여 클러스터 오토스케일러가 제시하는 몇 가지 문제를 해결하도록 설계되었습니다.
* 워크로드 요구 사항에 따라 노드를 프로비저닝합니다.
* 유연한 워크로드 프로비저너 옵션을 사용하여 인스턴스 유형별로 다양한 노드 구성을 생성합니다. Karpenter를 사용하면 많은 특정 사용자 지정 노드 그룹을 관리하는 대신 유연한 단일 프로비저너로 다양한 워크로드 용량을 관리할 수 있습니다.
* 노드를 빠르게 시작하고 파드를 스케줄링하여 대규모 파드 스케줄링을 개선합니다.
Karpenter 사용에 대한 정보 및 설명서를 보려면 [karpenter.sh](https://karpenter.sh/) 사이트를 방문하세요.
## 권장 사항
모범 사례는 Karpenter, 프로비저너(provisioner), 파드 스케줄링 섹션으로 구분됩니다.
## Karpenter 모범 사례
다음 모범 사례는 Karpenter 자체와 관련된 주제를 다룹니다.
### 변화하는 용량 요구가 있는 워크로드에는 Karpenter를 사용하세요
Karpenter는 [Auto Scaling 그룹](https://aws.amazon.com/blogs/containers/amazon-eks-cluster-multi-zone-auto-scaling-groups/)(ASG) 및 [관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html)(MNG)보다 쿠버네티스 네이티브 API에 더 가까운 스케일링 관리를 제공합니다. ASG 및 MNG는 EC2 CPU 부하와 같은 AWS 레벨 메트릭을 기반으로 스케일링이 트리거되는 AWS 네이티브 추상화입니다. [Cluster Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler)는 쿠버네티스 추상화를 AWS 추상화로 연결하지만, 이로 인해 특정 가용영역에 대한 스케줄링과 같은 유연성이 다소 떨어집니다.
Karpenter는 일부 유연성을 쿠버네티스에 직접 적용하기 위해 AWS 추상화 계층을 제거합니다. Karpenter는 수요가 급증하는 시기에 직면하거나 다양한 컴퓨팅 요구 사항이 있는 워크로드가 있는 클러스터에 가장 적합합니다.MNG와 ASG는 정적이고 일관성이 높은 워크로드를 실행하는 클러스터에 적합합니다. 요구 사항에 따라 동적으로 관리되는 노드와 정적으로 관리되는 노드를 혼합하여 사용할 수 있습니다.
### 다음과 같은 경우에는 다른 Auto Scaling 프로젝트를 고려합니다.
Karpenter에서 아직 개발 중인 기능이 필요합니다. Karpenter는 비교적 새로운 프로젝트이므로 아직 Karpenter에 포함되지 않은 기능이 필요한 경우 당분간 다른 오토스케일링 프로젝트를 고려해 보세요.
### EKS Fargate 또는 노드 그룹에 속한 워커 노드에서 Karpenter 컨트롤러를 실행합니다.
Karpenter는 [헬름 차트](https://karpenter.sh/docs/getting-started/)를 사용하여 설치됩니다. 이 헬름 차트는 Karpenter 컨트롤러와 웹훅 파드를 디플로이먼트로 설치하는데, 이 디플로이먼트를 실행해야 컨트롤러를 사용하여 클러스터를 확장할 수 있습니다. 최소 하나 이상의 워커 노드가 있는 소규모 노드 그룹을 하나 이상 사용하는 것이 좋습니다. 대안으로, 'karpenter' 네임스페이스에 대한 Fargate 프로파일을 생성하여 EKS Fargate에서 이런 파드를 실행할 수 있습니다. 이렇게 하면 이 네임스페이스에 배포된 모든 파드가 EKS Fargate에서 실행됩니다. Karpenter가 관리하는 노드에서는 Karpenter를 실행하지 마십시오.
### Karpenter에서 사용자 지정 시작 템플릿(launch template)을 사용하지 마십시오.
Karpenter는 사용자 지정 시작 템플릿을 사용하지 말 것을 강력히 권장합니다. 사용자 지정 시작 템플릿을 사용하면 멀티 아키텍처 지원, 노드 자동 업그레이드 기능 및 보안그룹 검색이 불가능합니다. 시작 템플릿을 사용하면 Karpenter 프로비저너 내에서 특정 필드가 중복되고 Karpenter는 다른 필드(예: 서브넷 및 인스턴스 유형)를 무시하기 때문에 혼동이 발생할 수도 있습니다.
사용자 지정 사용자 데이터(EC2 User Data)를 사용하거나 AWS 노드 템플릿에서 사용자 지정 AMI를 직접 지정하면 시작 템플릿 사용을 피할 수 있는 경우가 많습니다. 이 작업을 수행하는 방법에 대한 자세한 내용은 [노드 템플릿](https://karpenter.sh/docs/concepts/node-templates)에서 확인할 수 있습니다.
### 워크로드에 맞지 않는 인스턴스 유형은 제외합니다.
특정 인스턴스 유형이 클러스터에서 실행되는 워크로드에 필요하지 않은 경우, [node.kubernetes.io/instance-type](http://node.kubernetes.io/instance-type) 키에서 해당 인스턴스 유형을 제외하는 것이 좋습니다.
다음 예제는 큰 Graviton 인스턴스의 프로비저닝을 방지하는 방법을 보여줍니다.
```yaml
- key: node.kubernetes.io/instance-type
operator: NotIn
values:
'm6g.16xlarge'
'm6gd.16xlarge'
'r6g.16xlarge'
'r6gd.16xlarge'
'c6g.16xlarge'
```
### 스팟 사용 시 인터럽트 핸들링 활성화
Karpenter는 [설정](https://karpenter.sh/docs/concepts/settings/#configmap)에서 `aws.interruptionQueue` 값을 통해 [네이티브 인터럽트 처리](https://karpenter.sh/docs/concepts/deprovisioning/#interruption)를 지원합니다. 인터럽트 핸들링은 다음과 같이 워크로드에 장애를 일으킬 수 있는 향후 비자발적 인터럽트 이벤트를 감시합니다.
* 스팟 인터럽트 경고
* 예정된 변경 상태 이벤트 (유지 관리 이벤트)
* 인스턴스 종료 이벤트
* 인스턴스 중지 이벤트
Karpenter는 노드에서 이런 이벤트 중 하나가 발생할 것을 감지하면 중단 이벤트가 발생하기 전에 노드를 자동으로 차단(cordon), 드레인 및 종료하여 중단 전에 워크로드를 정리할 수 있는 최대 시간을 제공합니다. [해당 글](https://karpenter.sh/docs/faq/#interruption-handling)에서 설명한 것처럼 AWS Node Termination Handler를 Karpenter와 함께 사용하는 것은 권장되지 않습니다.
종료 전 2분이 소요되는 체크포인트 또는 기타 형태의 정상적인 드레인이 필요한 파드는 해당 클러스터에서 Karpenter 중단 처리가 가능해야 합니다.
### **아웃바운드 인터넷 액세스가 없는 Amazon EKS 프라이빗 클러스터**
인터넷 연결 경로 없이 VPC에 EKS 클러스터를 프로비저닝할 때는 EKS 설명서에 나와 있는 프라이빗 클러스터 [요구 사항](https://docs.aws.amazon.com/eks/latest/userguide/private-clusters.html#private-cluster-requirements)에 따라 환경을 구성했는지 확인해야 합니다. 또한 VPC에 STS VPC 지역 엔드포인트를 생성했는지 확인해야 합니다. 그렇지 않은 경우 아래와 비슷한 오류가 표시됩니다.
```console
ERROR controller.controller.metrics Reconciler error {"commit": "5047f3c", "reconciler group": "karpenter.sh", "reconciler kind": "Provisioner", "name": "default", "namespace": "", "error": "fetching instance types using ec2.DescribeInstanceTypes, WebIdentityErr: failed to retrieve credentials\ncaused by: RequestError: send request failed\ncaused by: Post \"https://sts.<region>.amazonaws.com/\": dial tcp x.x.x.x:443: i/o timeout"}
```
Karpenter 컨트롤러는 서비스 어카운트용 IAM 역할(IRSA)을 사용하기 때문에 프라이빗 클러스터에서는 이런 변경이 필요합니다. IRSA로 구성된 파드는 AWS 보안 토큰 서비스 (AWS STS) API를 호출하여 자격 증명을 획득합니다. 아웃바운드 인터넷 액세스가 없는 경우 ***VPC안에서 AWS STS VPC 엔드포인트***를 생성하여 사용해야 합니다.
또한 프라이빗 클러스터를 사용하려면 ***SSM용VPC 엔드포인트***를 생성해야 합니다. Karpenter는 새 노드를 프로비저닝하려고 할 때 시작 템플릿 구성과 SSM 파라미터를 쿼리합니다. VPC에 SSM VPC 엔드포인트가 없는 경우 다음과 같은 오류가 발생합니다.
```console
INFO controller.provisioning Waiting for unschedulable pods {"commit": "5047f3c", "provisioner": "default"}
INFO controller.provisioning Batched 3 pods in 1.000572709s {"commit": "5047f3c", "provisioner": "default"}
INFO controller.provisioning Computed packing of 1 node(s) for 3 pod(s) with instance type option(s) [c4.xlarge c6i.xlarge c5.xlarge c5d.xlarge c5a.xlarge c5n.xlarge m6i.xlarge m4.xlarge m6a.xlarge m5ad.xlarge m5d.xlarge t3.xlarge m5a.xlarge t3a.xlarge m5.xlarge r4.xlarge r3.xlarge r5ad.xlarge r6i.xlarge r5a.xlarge] {"commit": "5047f3c", "provisioner": "default"}
ERROR controller.provisioning Could not launch node, launching instances, getting launch template configs, getting launch templates, getting ssm parameter, RequestError: send request failed
caused by: Post "https://ssm.<region>.amazonaws.com/": dial tcp x.x.x.x:443: i/o timeout {"commit": "5047f3c", "provisioner": "default"}
```
***[가격 목록 쿼리 API](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/using-pelong.html)를 위한 VPC 엔드포인트*** 는 없습니다.
결과적으로 가격 데이터는 시간이 지남에 따라 부실해질 것입니다.
Karpenter는 바이너리에 온디맨드 가격 책정 데이터를 포함하여 이 문제를 해결하지만 Karpenter가 업그레이드될 때만 해당 데이터를 업데이트합니다.
가격 데이터 요청이 실패하면 다음과 같은 오류 메시지가 표시됩니다.
```console
ERROR controller.aws.pricing updating on-demand pricing, RequestError: send request failed
caused by: Post "https://api.pricing.us-east-1.amazonaws.com/": dial tcp 52.94.231.236:443: i/o timeout; RequestError: send request failed
caused by: Post "https://api.pricing.us-east-1.amazonaws.com/": dial tcp 52.94.231.236:443: i/o timeout, using existing pricing data from 2022-08-17T00:19:52Z {"commit": "4b5f953"}
```
요약하자면 완전한 프라이빗 EKS 클러스터에서 Karpenter를 사용하려면 다음과 같은 VPC 엔드포인트를 생성해야 합니다.
```console
com.amazonaws.<region>.ec2
com.amazonaws.<region>.ecr.api
com.amazonaws.<region>.ecr.dkr
com.amazonaws.<region>.s3 – For pulling container images
com.amazonaws.<region>.sts – For IAM roles for service accounts
com.amazonaws.<region>.ssm - If using Karpenter
```
!!! note
Karpenter (컨트롤러 및 웹훅 배포) 컨테이너 이미지는 Amazon ECR 전용 또는 VPC 내부에서 액세스할 수 있는 다른 사설 레지스트리에 있거나 복사되어야 합니다.그 이유는 Karpenter 컨트롤러와 웹훅 파드가 현재 퍼블릭 ECR 이미지를 사용하고 있기 때문입니다. VPC 내에서 또는 VPC와 피어링된 네트워크에서 이런 이미지를 사용할 수 없는 경우, 쿠버네티스가 ECR Public에서 이런 이미지를 가져오려고 할 때 이미지 가져오기 오류가 발생합니다.
자세한 내용은 [이슈 988](https://github.com/aws/karpenter/issues/988) 및 [이슈 1157](https://github.com/aws/karpenter/issues/1157) 을 참조하십시오.
## 프로비져너 생성
다음 모범 사례는 프로비져너 생성과 관련된 주제를 다룹니다.
### 다음과 같은 경우 프로비져너를 여러 개 만들 수 있습니다.
여러 팀이 클러스터를 공유하고 서로 다른 워커 노드에서 워크로드를 실행해야 하거나 OS 또는 인스턴스 유형 요구 사항이 다른 경우 여러 프로비저너를 생성하세요. 예를 들어 한 팀은 Bottlerocket을 사용하고 다른 팀은 Amazon Linux를 사용하려고 할 수 있습니다. 마찬가지로 한 팀은 다른 팀에는 필요하지 않은 값비싼 GPU 하드웨어를 사용할 수 있습니다. 프로비저닝 도구를 여러 개 사용하면 각 팀에서 가장 적합한 자산을 사용할 수 있습니다.
### 상호 배타적이거나 가중치가 부여되는 프로비저닝 도구 만들기
일관된 스케줄링 동작을 제공하려면 상호 배타적이거나 가중치가 부여되는 프로비저너를 만드는 것이 좋습니다. 일치하지 않고 여러 프로비져너가 일치하는 경우 Karpenter는 사용할 프로비져너를 임의로 선택하여 예상치 못한 결과를 초래합니다. 여러 프로비져너를 만들 때 유용한 예는 다음과 같습니다.
GPU를 사용하여 프로비저닝 도구를 만들고 이런 (비용이 많이 드는) 노드에서만 특수 워크로드를 실행하도록 허용:
```yaml
# Provisioner for GPU Instances with Taints
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: gpu
spec:
requirements:
- key: node.kubernetes.io/instance-type
operator: In
values:
- p3.8xlarge
- p3.16xlarge
taints:
- effect: NoSchedule
key: nvidia.com/gpu
value: "true"
ttlSecondsAfterEmpty: 60
```
태인트(Taint)를 위한 톨러레이션(Toleration)을 갖고 있는 디플로이먼트:
```yaml
# Deployment of GPU Workload will have tolerations defined
apiVersion: apps/v1
kind: Deployment
metadata:
name: inflate-gpu
spec:
...
spec:
tolerations:
- key: "nvidia.com/gpu"
operator: "Exists"
effect: "NoSchedule"
```
다른 팀을 위한 일반 디플로이먼트의 경우 프로비저너 사양에 NodeAffinify가 포함될 수 있습니다. 그러면 디플로이먼트는 노드 셀렉터 용어를 사용하여 `billing-team` 과 일치시킬 수 있습니다.
```yaml
# Provisioner for regular EC2 instances
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: generalcompute
spec:
labels:
billing-team: my-team
requirements:
- key: node.kubernetes.io/instance-type
operator: In
values:
- m5.large
- m5.xlarge
- m5.2xlarge
- c5.large
- c5.xlarge
- c5a.large
- c5a.xlarge
- r5.large
- r5.xlarge
```
노드 어피니티를 사용하는 디플로이먼트:
```yaml
# Deployment will have spec.affinity.nodeAffinity defined
kind: Deployment
metadata:
name: workload-my-team
spec:
replicas: 200
...
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: "billing-team"
operator: "In"
values: ["my-team"]
```
### 타이머(TTL)를 사용하여 클러스터에서 노드를 자동으로 삭제합니다.
프로비저닝된 노드의 타이머를 사용하여 워크로드 파드가 없거나 만료 시간에 도달한 노드를 삭제할 시기를 설정할 수 있습니다. 노드 만료를 업그레이드 수단으로 사용하여 노드를 폐기하고 업데이트된 버전으로 교체할 수 있습니다. **`ttlSecondsUntilExpired`** 및 **`ttlSecondsAfterEmpty`**를 사용하여 노드를 프로비저닝 해제하는 방법에 대한 자세한 내용은 Karpenter 설명서의 [Karpenter 노드 디프로비저닝 방법](https://karpenter.sh/docs/concepts/deprovisioning)을 참조하십시오.
### 특히 스팟을 사용할 때는 Karpenter가 프로비저닝할 수 있는 인스턴스 유형을 지나치게 제한하지 마십시오.
스팟을 사용할 때 Karpenter는 [가격 및 용량 최적화](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-fleet-allocation-strategy.html) 할당 전략을 사용하여 EC2 인스턴스를 프로비저닝합니다. 이 전략은 EC2가 시작 중인 인스턴스 수만큼 가장 깊은 풀의 인스턴스를 프로비저닝하고 중단 위험이 가장 적은 인스턴스 수에 맞게 인스턴스를 프로비저닝하도록 지시합니다. 그런 다음 EC2 플릿은 이런 풀 중 가장 저렴한 가격의 스팟 인스턴스를 요청합니다. Karpenter에 사용할 수 있는 인스턴스 유형이 많을수록 EC2는 스팟 인스턴스의 런타임을 더 잘 최적화할 수 있습니다. 기본적으로 Karpenter는 클러스터가 배포된 지역 및 가용영역에서 EC2가 제공하는 모든 인스턴스 유형을 사용합니다. Karpenter는 보류 중인 파드를 기반으로 모든 인스턴스 유형 세트 중에서 지능적으로 선택하여 파드가 적절한 크기와 장비를 갖춘 인스턴스로 스케줄링되도록 합니다. 예를 들어, 파드에 GPU가 필요하지 않은 경우 Karpenter는 GPU를 지원하는 EC2 인스턴스 유형으로 파드를 예약하지 않습니다. 어떤 인스턴스 유형을 사용해야 할지 확실하지 않은 경우 Amazon [ec2-instance-selector](https://github.com/aws/amazon-ec2-instance-selector)를 실행하여 컴퓨팅 요구 사항에 맞는 인스턴스 유형 목록을 생성할 수 있습니다. 예를 들어 CLI는 메모리 vCPU,아키텍처 및 지역을 입력 파라미터로 사용하고 이런 제약 조건을 충족하는 EC2 인스턴스 목록을 제공합니다.
```console
$ ec2-instance-selector --memory 4 --vcpus 2 --cpu-architecture x86_64 -r ap-southeast-1
c5.large
c5a.large
c5ad.large
c5d.large
c6i.large
t2.medium
t3.medium
t3a.medium
```
스팟 인스턴스를 사용할 때 Karpenter에 너무 많은 제약을 두어서는 안 됩니다. 그렇게 하면 애플리케이션의 가용성에 영향을 미칠 수 있기 때문입니다. 예를 들어 특정 유형의 모든 인스턴스가 회수되고 이를 대체할 적절한 대안이 없다고 가정해 보겠습니다. 구성된 인스턴스 유형의 스팟 용량이 보충될 때까지 파드는 보류 상태로 유지됩니다. 스팟 풀은 AZ마다 다르기 때문에 여러 가용영역에 인스턴스를 분산하여 용량 부족 오류가 발생할 위험을 줄일 수 있습니다. 하지만 일반적인 모범 사례는 Karpenter가 스팟을 사용할 때 다양한 인스턴스 유형 세트를 사용할 수 있도록 하는 것입니다.
## 스케줄링 파드
다음 모범 사례는 노드 프로비저닝을 위해 Karpenter를 사용하여 클러스터에 파드를 배포하는 것과 관련이 있습니다.
### 고가용성을 위한 EKS 모범 사례를 따르십시오.
고가용성 애플리케이션을 실행해야 하는 경우 일반적인 EKS 모범 사례 [권장 사항](https://aws.github.io/aws-eks-best-practices/reliability/docs/application/#recommendations)을 따르십시오. 여러 노드와 영역에 파드를 분산하는 방법에 대한 자세한 내용은 Karpenter 설명서의 [토폴로지 확산](https://karpenter.sh/docs/concepts/scheduling/#topology-spread)을 참조하십시오. 파드를 제거하거나 삭제하려는 시도가 있는 경우 [중단 예산(Disruption Budgets)](https://karpenter.sh/docs/troubleshooting/#disruption-budgets)을 사용하여 유지 관리가 필요한 최소 가용 파드를 설정하세요.
### 계층화된 제약 조건을 사용하여 클라우드 공급자가 제공하는 컴퓨팅 기능을 제한하십시오.
Karpenter의 계층형 제약 조건 모델을 사용하면 복잡한 프로비저너 및 파드 배포 제약 조건 세트를 생성하여 파드 스케줄링에 가장 적합한 조건을 얻을 수 있습니다. 파드 사양이 요청할 수 있는 제약 조건의 예는 다음과 같습니다.
* 특정 애플리케이션만 사용할 수 있는 가용영역에서 실행해야 합니다. 예를 들어 특정 가용영역에 있는 EC2 인스턴스에서 실행되는 다른 애플리케이션과 통신해야 하는 파드가 있다고 가정해 보겠습니다. VPC의 AZ 간 트래픽을 줄이는 것이 목표라면 EC2 인스턴스가 위치한 AZ에 파드를 같은 위치에 배치하는 것이 좋습니다. 이런 종류의 타겟팅은 대개 노드 셀렉터를 사용하여 수행됩니다. [노드 셀렉터](https://karpenter.sh/docs/concepts/scheduling/#selecting-nodes)에 대한 추가 정보는 쿠버네티스 설명서를 참조하십시오.
* 특정 종류의 프로세서 또는 기타 하드웨어가 필요합니다. GPU에서 파드를 실행해야 하는 팟스펙 예제는 Karpenter 문서의 [액셀러레이터](https://karpenter.sh/docs/concepts/scheduling/#acceleratorsgpu-resources)섹션을 참조하십시오.
### 결제 경보를 생성하여 컴퓨팅 지출을 모니터링하세요
클러스터를 자동으로 확장하도록 구성할 때는 지출이 임계값을 초과했을 때 경고하는 청구 알람를 생성하고 Karpenter 구성에 리소스 제한을 추가해야 합니다. Karpenter로 리소스 제한을 설정하는 것은 Karpenter 프로비저너가 인스턴스화할 수 있는 컴퓨팅 리소스의 최대량을 나타낸다는 점에서 AWS Autoscaling 그룹의 최대 용량을 설정하는 것과 비슷합니다.
!!! note
전체 클러스터에 대해 글로벌 제한을 설정할 수는 없습니다. 한도는 특정 프로비저너에 적용됩니다.
아래 스니펫은 Karpenter에게 최대 1000개의 CPU 코어와 1000Gi의 메모리만 프로비저닝하도록 지시합니다. Karpenter는 한도에 도달하거나 초과할 때만 용량 추가를 중단합니다. 한도를 초과하면 Karpenter 컨트롤러는 '1001의 메모리 리소스 사용량이 한도 1000을 초과합니다' 또는 이와 비슷한 모양의 메시지를 컨트롤러 로그에 기록합니다. 컨테이너 로그를 CloudWatch 로그로 라우팅하는 경우 [지표 필터](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/MonitoringLogData.html)를 생성하여 로그에서 특정 패턴이나 용어를 찾은 다음 [CloudWatch 알람](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html)을 생성하여 구성된 지표 임계값을 위반했을 때 경고를 보낼 수 있습니다.
Karpenter에서 제한을 사용하는 자세한 내용은 Karpenter 설명서의 [리소스 제한 설정](https://karpenter.sh/docs/concepts/provisioners/#speclimitsresources)을 참조하십시오.
```yaml
spec:
limits:
resources:
cpu: 1000
memory: 1000Gi
```
Karpenter가 프로비저닝할 수 있는 인스턴스 유형을 제한하거나 제한하지 않는 경우 Karpenter는 필요에 따라 클러스터에 컴퓨팅 파워를 계속 추가합니다. Karpenter를 이런 방식으로 구성하면 클러스터를 자유롭게 확장할 수 있지만 비용에도 상당한 영향을 미칠 수 있습니다. 이런 이유로 결제 경보를 구성하는 것이 좋습니다. 청구 경보를 사용하면 계정에서 계산된 예상 요금이 정의된 임계값을 초과할 경우 알림을 받고 사전에 알림을 받을 수 있습니다. 자세한 내용은 [예상 요금을 사전에 모니터링하기 위한 Amazon CloudWatch 청구 경보 설정](https://aws.amazon.com/blogs/mt/setting-up-an-amazon-cloudwatch-billing-alarm-to-proactively-monitor-estimated-charges/)을 참조하십시오.
기계 학습을 사용하여 비용과 사용량을 지속적으로 모니터링하여 비정상적인 지출을 감지하는 AWS 비용 관리 기능인 비용 예외 탐지를 활성화할 수도 있습니다. 자세한 내용은 [AWS 비용 이상 탐지 시작](https://docs.aws.amazon.com/cost-management/latest/userguide/getting-started-ad.html) 가이드에서 확인할 수 있습니다. AWS Budgets에서 예산을 편성한 경우, 특정 임계값 위반 시 알림을 받도록 조치를 구성할 수도 있습니다. 예산 활동을 통해 이메일을 보내거나, SNS 주제에 메시지를 게시하거나, Slack과 같은 챗봇에 메시지를 보낼 수 있습니다. 자세한 내용은 [AWS 예산 작업 구성](https://docs.aws.amazon.com/cost-management/latest/userguide/budgets-controls.html)을 참조하십시오.
### 제거 금지(do-not-evict) 어노테이션 사용하여 Karpenter가 노드 프로비저닝을 취소하지 못하도록 하세요.
Karpenter가 프로비저닝한 노드에서 중요한 애플리케이션(예: *장기 실행* 배치 작업 또는 스테이트풀 애플리케이션)을 실행 중이고 노드의 TTL이 만료되었으면* 인스턴스가 종료되면 애플리케이션이 중단됩니다. 파드에 `karpenter.sh/do-not-evict` 어노테이션을 추가하면 파드가 종료되거나 `do-not-evict` 어노테이션이 제거될 때까지 Karpenter가 노드를 보존하도록 지시하는 것입니다. 자세한 내용은 [디프로비저닝](https://karpenter.sh/docs/concepts/deprovisioning/#disabling-deprovisioning) 설명서를 참조하십시오.
노드에 데몬셋이 아닌 파드가 작업과 관련된 파드만 남아 있는 경우, Karpenter는 작업 상태가 성공 또는 실패인 한 해당 노드를 대상으로 지정하고 종료할 수 있습니다.
### 통합(Consolidation)을 사용할 때 CPU가 아닌 모든 리소스에 대해 요청=제한(requests=limits)을 구성합니다.
일반적으로 파드 리소스 요청과 노드의 할당 가능한 리소스 양을 비교하여 통합 및 스케줄링을 수행합니다. 리소스 제한은 고려되지 않습니다. 예를 들어 메모리 한도가 메모리 요청량보다 큰 파드는 요청을 초과할 수 있습니다. 동일한 노드의 여러 파드가 동시에 버스트되면 메모리 부족(OOM) 상태로 인해 일부 파드가 종료될 수 있습니다.통합은 요청만 고려하여 파드를 노드에 패킹하는 방식으로 작동하기 때문에 이런 일이 발생할 가능성을 높일 수 있다.
### LimitRanges 를 사용하여 리소스 요청 및 제한에 대한 기본값을 구성합니다.
쿠버네티스는 기본 요청이나 제한을 설정하지 않기 때문에 컨테이너는 기본 호스트, CPU 및 메모리의 리소스 사용량을 제한하지 않습니다. 쿠버네티스 스케줄러는 파드의 총 요청(파드 컨테이너의 총 요청 또는 파드 Init 컨테이너의 총 리소스 중 더 높은 요청)을 검토하여 파드를 스케줄링할 워커 노드를 결정합니다. 마찬가지로 Karpenter는 파드의 요청을 고려하여 프로비저닝하는 인스턴스 유형을 결정합니다. 일부 파드에서 리소스 요청을 지정하지 않는 경우 제한 범위를 사용하여 네임스페이스에 적절한 기본값을 적용할 수 있습니다.
[네임스페이스에 대한 기본 메모리 요청 및 제한 구성](https://kubernetes.io/docs/tasks/administer-cluster/manage-resources/memory-default-namespace/)을 참조하십시오.
### 정확한 리소스 요청을 모든 워크로드에 적용
Karpenter는 워크로드 요구 사항에 대한 정보가 정확할 때 워크로드에 가장 적합한 노드를 시작할 수 있습니다.이는 Karpenter의 통합 기능을 사용하는 경우 특히 중요합니다.
[모든 워크로드에 대한 리소스 요청/제한 구성 및 크기 조정](https://aws.github.io/aws-eks-best-practices/reliability/docs/dataplane/#configure-and-size-resource-requestslimits-for-all-workloads)을 참조하십시오.
## 추가 리소스
* [Karpenter/Spot Workshop](https://ec2spotworkshops.com/karpenter.html)
* [Karpenter Node Provisioner](https://youtu.be/_FXRIKWJWUk)
* [TGIK Karpenter](https://youtu.be/zXqrNJaTCrU)
* [Karpenter vs. Cluster Autoscaler](https://youtu.be/3QsVRHVdOnM)
* [Groupless Autoscaling with Karpenter](https://www.youtube.com/watch?v=43g8uPohTgc | eks | search exclude true Karpenter Karpenter Karpenter unschedulable Karpenter pending Karpenter Karpenter Amazon EC2 Auto Scaling https docs aws amazon com autoscaling ec2 userguide AutoScalingGroup html Cluster Autoscaler https github com kubernetes autoscaler tree master cluster autoscaler CA Karpenter Karpenter CA AWS API Karpenter Karpenter Karpenter Karpenter karpenter sh https karpenter sh Karpenter provisioner Karpenter Karpenter Karpenter Karpenter Auto Scaling https aws amazon com blogs containers amazon eks cluster multi zone auto scaling groups ASG https docs aws amazon com eks latest userguide managed node groups html MNG API ASG MNG EC2 CPU AWS AWS Cluster Autoscaler https docs aws amazon com eks latest userguide autoscaling html cluster autoscaler AWS Karpenter AWS Karpenter MNG ASG Auto Scaling Karpenter Karpenter Karpenter EKS Fargate Karpenter Karpenter https karpenter sh docs getting started Karpenter karpenter Fargate EKS Fargate EKS Fargate Karpenter Karpenter Karpenter launch template Karpenter Karpenter Karpenter EC2 User Data AWS AMI https karpenter sh docs concepts node templates node kubernetes io instance type http node kubernetes io instance type Graviton yaml key node kubernetes io instance type operator NotIn values m6g 16xlarge m6gd 16xlarge r6g 16xlarge r6gd 16xlarge c6g 16xlarge Karpenter https karpenter sh docs concepts settings configmap aws interruptionQueue https karpenter sh docs concepts deprovisioning interruption Karpenter cordon https karpenter sh docs faq interruption handling AWS Node Termination Handler Karpenter 2 Karpenter Amazon EKS VPC EKS EKS https docs aws amazon com eks latest userguide private clusters html private cluster requirements VPC STS VPC console ERROR controller controller metrics Reconciler error commit 5047f3c reconciler group karpenter sh reconciler kind Provisioner name default namespace error fetching instance types using ec2 DescribeInstanceTypes WebIdentityErr failed to retrieve credentials ncaused by RequestError send request failed ncaused by Post https sts region amazonaws com dial tcp x x x x 443 i o timeout Karpenter IAM IRSA IRSA AWS AWS STS API VPC AWS STS VPC SSM VPC Karpenter SSM VPC SSM VPC console INFO controller provisioning Waiting for unschedulable pods commit 5047f3c provisioner default INFO controller provisioning Batched 3 pods in 1 000572709s commit 5047f3c provisioner default INFO controller provisioning Computed packing of 1 node s for 3 pod s with instance type option s c4 xlarge c6i xlarge c5 xlarge c5d xlarge c5a xlarge c5n xlarge m6i xlarge m4 xlarge m6a xlarge m5ad xlarge m5d xlarge t3 xlarge m5a xlarge t3a xlarge m5 xlarge r4 xlarge r3 xlarge r5ad xlarge r6i xlarge r5a xlarge commit 5047f3c provisioner default ERROR controller provisioning Could not launch node launching instances getting launch template configs getting launch templates getting ssm parameter RequestError send request failed caused by Post https ssm region amazonaws com dial tcp x x x x 443 i o timeout commit 5047f3c provisioner default API https docs aws amazon com awsaccountbilling latest aboutv2 using pelong html VPC Karpenter Karpenter console ERROR controller aws pricing updating on demand pricing RequestError send request failed caused by Post https api pricing us east 1 amazonaws com dial tcp 52 94 231 236 443 i o timeout RequestError send request failed caused by Post https api pricing us east 1 amazonaws com dial tcp 52 94 231 236 443 i o timeout using existing pricing data from 2022 08 17T00 19 52Z commit 4b5f953 EKS Karpenter VPC console com amazonaws region ec2 com amazonaws region ecr api com amazonaws region ecr dkr com amazonaws region s3 For pulling container images com amazonaws region sts For IAM roles for service accounts com amazonaws region ssm If using Karpenter note Karpenter Amazon ECR VPC Karpenter ECR VPC VPC ECR Public 988 https github com aws karpenter issues 988 1157 https github com aws karpenter issues 1157 OS Bottlerocket Amazon Linux GPU Karpenter GPU yaml Provisioner for GPU Instances with Taints apiVersion karpenter sh v1alpha5 kind Provisioner metadata name gpu spec requirements key node kubernetes io instance type operator In values p3 8xlarge p3 16xlarge taints effect NoSchedule key nvidia com gpu value true ttlSecondsAfterEmpty 60 Taint Toleration yaml Deployment of GPU Workload will have tolerations defined apiVersion apps v1 kind Deployment metadata name inflate gpu spec spec tolerations key nvidia com gpu operator Exists effect NoSchedule NodeAffinify billing team yaml Provisioner for regular EC2 instances apiVersion karpenter sh v1alpha5 kind Provisioner metadata name generalcompute spec labels billing team my team requirements key node kubernetes io instance type operator In values m5 large m5 xlarge m5 2xlarge c5 large c5 xlarge c5a large c5a xlarge r5 large r5 xlarge yaml Deployment will have spec affinity nodeAffinity defined kind Deployment metadata name workload my team spec replicas 200 spec affinity nodeAffinity requiredDuringSchedulingIgnoredDuringExecution nodeSelectorTerms matchExpressions key billing team operator In values my team TTL ttlSecondsUntilExpired ttlSecondsAfterEmpty Karpenter Karpenter https karpenter sh docs concepts deprovisioning Karpenter Karpenter https docs aws amazon com AWSEC2 latest UserGuide ec2 fleet allocation strategy html EC2 EC2 EC2 Karpenter EC2 Karpenter EC2 Karpenter GPU Karpenter GPU EC2 Amazon ec2 instance selector https github com aws amazon ec2 instance selector CLI vCPU EC2 console ec2 instance selector memory 4 vcpus 2 cpu architecture x86 64 r ap southeast 1 c5 large c5a large c5ad large c5d large c6i large t2 medium t3 medium t3a medium Karpenter AZ Karpenter Karpenter EKS EKS https aws github io aws eks best practices reliability docs application recommendations Karpenter https karpenter sh docs concepts scheduling topology spread Disruption Budgets https karpenter sh docs troubleshooting disruption budgets Karpenter EC2 VPC AZ EC2 AZ https karpenter sh docs concepts scheduling selecting nodes GPU Karpenter https karpenter sh docs concepts scheduling acceleratorsgpu resources Karpenter Karpenter Karpenter AWS Autoscaling note Karpenter 1000 CPU 1000Gi Karpenter Karpenter 1001 1000 CloudWatch https docs aws amazon com AmazonCloudWatch latest logs MonitoringLogData html CloudWatch https docs aws amazon com AmazonCloudWatch latest monitoring AlarmThatSendsEmail html Karpenter Karpenter https karpenter sh docs concepts provisioners speclimitsresources yaml spec limits resources cpu 1000 memory 1000Gi Karpenter Karpenter Karpenter Amazon CloudWatch https aws amazon com blogs mt setting up an amazon cloudwatch billing alarm to proactively monitor estimated charges AWS AWS https docs aws amazon com cost management latest userguide getting started ad html AWS Budgets SNS Slack AWS https docs aws amazon com cost management latest userguide budgets controls html do not evict Karpenter Karpenter TTL karpenter sh do not evict do not evict Karpenter https karpenter sh docs concepts deprovisioning disabling deprovisioning Karpenter Consolidation CPU requests limits OOM LimitRanges CPU Init Karpenter https kubernetes io docs tasks administer cluster manage resources memory default namespace Karpenter Karpenter https aws github io aws eks best practices reliability docs dataplane configure and size resource requestslimits for all workloads Karpenter Spot Workshop https ec2spotworkshops com karpenter html Karpenter Node Provisioner https youtu be FXRIKWJWUk TGIK Karpenter https youtu be zXqrNJaTCrU Karpenter vs Cluster Autoscaler https youtu be 3QsVRHVdOnM Groupless Autoscaling with Karpenter https www youtube com watch v 43g8uPohTgc |
eks AWS exclude true search | ---
search:
exclude: true
---
# 이미지 보안
컨테이너 이미지는 공격에 대한 첫 번째 방어선으로 고려하여야 합니다. 안전하지 않고 잘못 구성된 이미지는 공격자는 컨테이너의 경계를 벗어나 호스트에 액세스할 수 있도록 허용합니다. 호스트에 들어가면 공격자는 민감한 정보에 액세스하거나 클러스터 내 또는 AWS 계정 내에 접근할 수 있습니다. 다음 모범 사례는 이런 상황이 발생할 위험을 완화하는 데 도움이 됩니다.
## 권장 사항
### 최소 이미지 생성
먼저 컨테이너 이미지에서 필요없는 바이너리를 모두 제거합니다. Dockerhub로부터 검증되지 않은 이미지를 사용하는 경우 각 컨테이너 레이어의 내용을 볼 수 있는 [Dive](https://github.com/wagoodman/dive)와 같은 애플리케이션을 사용하여 이미지를 검사합니다. 권한을 상승할 수 있는 SETUID 및 SETGID 비트가 있는 모든 바이너리를 제거하고 nc나 curl과 같이 악의적인 용도로 사용될 수 있는 셸과 유틸리티를 모두 제거하는 것을 고려합니다. 다음 명령을 사용하여 SETUID 및 SETGID 비트가 있는 파일을 찾을 수 있습니다.
```bash
find / -perm /6000 -type f -exec ls -ld {} \;
```
이런 파일에서 특수 권한을 제거하려면 컨테이너 이미지에 다음 지시문을 추가합니다.
```docker
RUN find / -xdev -perm /6000 -type f -exec chmod a-s {} \; || true
```
### 멀티 스테이지 빌드 사용
멀티 스테이지 빌드를 사용하면 최소한의 이미지를 만들 수 있습니다. 지속적 통합 주기의 일부를 자동화하는 데 멀티 스테이지 빌드를 사용하는 경우가 많습니다. 예를 들어 멀티 스테이지 빌드를 사용하여 소스 코드를 린트하거나 정적 코드 분석을 수행할 수 있습니다. 이를 통해 개발자는 파이프라인 실행을 기다릴 필요 없이 거의 즉각적인 피드백을 받을 수 있습니다. 멀티 스테이지 빌드는 컨테이너 레지스트리로 푸시되는 최종 이미지의 크기를 최소화할 수 있기 때문에 보안 관점에서 매력적입니다. 빌드 도구 및 기타 관련 없는 바이너리가 없는 컨테이너 이미지는 이미지의 공격 표면을 줄여 보안 상태를 개선합니다. 멀티 스테이지 빌드에 대한 추가 정보는 [본 문서](https://docs.docker.com/develop/develop-images/multistage-build/)를 참조합니다.
### 컨테이너 이미지를 위한 소프트웨어 재료 명세서 (SBOM, Software Bill of Materials) 생성
SBOM은 컨테이너 이미지를 구성하는 소프트웨어 아티팩트의 중첩된 인벤토리입니다.
SBOM은 소프트웨어 보안 및 소프트웨어 공급망 위험 관리의 핵심 구성 요소입니다. [SBOM을 생성하여 중앙 리포지토리에 저장하고 SBOM의 취약성 검사](https://anchore.com/SBOM/)는 다음과 같은 문제를 해결하는 데 도움이 됩니다.
- **가시성**: 컨테이너 이미지를 구성하는 구성 요소를 이해합니다. 중앙 리포지토리에 저장하면 배포 이후에도 언제든지 SBOM을 감사 및 스캔하여 제로 데이 취약성과 같은 새로운 취약성을 탐지하고 이에 대응할 수 있습니다.
- **출처 검증**: 아티팩트의 출처 및 출처에 대한 기존 가정이 사실이고 빌드 또는 제공 프로세스 중에 아티팩트 또는 관련 메타데이터가 변조되지 않았음을 보증합니다.
- **신뢰성**: 특정 유물과 그 내용물이 의도한 작업, 즉 목적에 적합하다는 것을 신뢰할 수 있다는 보장. 여기에는 코드를 실행하기에 안전한지 판단하고 코드 실행과 관련된 위험에 대해 정보에 입각한 결정을 내리는 것이 포함됩니다. 인증된 SBOM 및 인증된 CVE 스캔 보고서와 함께 검증된 파이프라인 실행 보고서를 작성하여 이미지 소비자에게 이 이미지가 실제로 보안 구성 요소를 갖춘 안전한 수단 (파이프라인) 을 통해 생성되었음을 확인하면 신뢰성이 보장됩니다.
- **종속성 신뢰 확인**: 아티팩트의 종속성 트리가 사용하는 아티팩트의 신뢰성과 출처를 반복적으로 검사합니다. SBOM의 드리프트는 신뢰할 수 없는 무단 종속성, 침입 시도 등 악의적인 활동을 탐지하는 데 도움이 될 수 있습니다.
다음 도구를 사용하여 SBOM을 생성할 수 있습니다:
- [Amazon Inspector](https://docs.aws.amazon.com/inspector)를 사용하여 [SBOM 생성 및 내보내기](https://docs.aws.amazon.com/inspector/latest/user/SBOM-export.html)를 수행할 수 있습니다.
- [Syft from Anchore](https://github.com/anchore/syft) 는 SBOM 생성에도 사용할 수 있습니다. 취약성 스캔을 더 빠르게 하기 위해 컨테이너 이미지에 대해 생성된 SBOM을 스캔을 위한 입력으로 사용할 수 있습니다. 그런 다음 검토 및 감사 목적으로 이미지를 Amazon ECR과 같은 중앙 OCI 리포지토리로 푸시하기 전에 SBOM 및 스캔 보고서를 이미지에 [증명 및 첨부](https://github.com/sigstore/cosign/blob/main/doc/cosign_attach_attestation.md)합니다.
[CNCF 소프트웨어 공급망 모범 사례 가이드](https://project.linuxfoundation.org/hubfs/CNCF_SSCP_v1.pdf)를 검토하고 소프트웨어 공급망 보안에 대해 자세히 알아보세요.
### 취약점이 있는지 이미지를 정기적으로 스캔
가상 머신과 마찬가지로 컨테이너 이미지에는 취약성이 있는 바이너리와 애플리케이션 라이브러리가 포함되거나 시간이 지남에 따라 취약성이 발생할 수 있습니다. 악용으로부터 보호하는 가장 좋은 방법은 이미지 스캐너로 이미지를 정기적으로 스캔하는 것입니다. Amazon ECR에 저장된 이미지는 푸시 또는 온디맨드로 스캔할 수 있습니다. (24시간 동안 한 번) ECR은 현재 [두 가지 유형의 스캔 - 기본 및 고급](https://docs.aws.amazon.com/AmazonECR/latest/userguide/image-scanning.html)을 지원합니다. 기본 스캔은 [Clair](https://github.com/quay/clair)의 오픈 소스 이미지 스캔 솔루션을 무료로 활용합니다. [고급 스캔](https://docs.aws.amazon.com/AmazonECR/latest/userguide/image-scanning-enhanced.html)은 [추가 비용](https://aws.amazon.com/inspector/pricing/)이 과금되며 Amazon Inspector를 사용하여 자동 연속 스캔을 제공합니다. 이미지를 스캔한 후 결과는 EventBridge의 ECR용 이벤트 스트림에 기록됩니다. ECR 콘솔 내에서 스캔 결과를 볼 수도 있습니다. 심각하거나 심각한 취약성이 있는 이미지는 삭제하거나 다시 빌드해야 합니다. 배포된 이미지에서 취약점이 발견되면 가능한 한 빨리 교체해야 합니다.
취약성이 있는 이미지가 배포된 위치를 아는 것은 환경을 안전하게 유지하는 데 필수적입니다. 이미지 추적 솔루션을 직접 구축할 수도 있지만, 다음과 같이 이 기능을 비롯한 기타 고급 기능을 즉시 사용할 수 있는 상용 제품이 이미 여러 개 있습니다.
- [Grype](https://github.com/anchore/grype)
- [Palo Alto - Prisma Cloud (twistcli)](https://docs.paloaltonetworks.com/prisma/prisma-cloud/prisma-cloud-admin-compute/tools/twistcli_scan_images)
- [Aqua](https://www.aquasec.com/)
- [Kubei](https://github.com/Portshift/kubei)
- [Trivy](https://github.com/aquasecurity/trivy)
- [Snyk](https://support.snyk.io/hc/en-us/articles/360003946917-Test-images-with-the-Snyk-Container-CLI)
Kubernetes 검증 웹훅을 사용하여 이미지에 심각한 취약점이 없는지 검증할 수도 있습니다.검증 웹훅은 쿠버네티스 API보다 먼저 호출됩니다. 일반적으로 웹훅에 정의된 검증 기준을 준수하지 않는 요청을 거부하는 데 사용됩니다.[이 블로그](https://aws.amazon.com/blogs/containers/building-serverless-admission-webhooks-for-kubernetes-with-aws-sam/)는 ECR DescribeImagesCanVinds API를 호출하여 파드가 심각한 취약성이 있는 이미지를 가져오는지 여부를 확인하는 서버리스 웹훅을 소개합니다. 취약성이 발견되면 파드가 거부되고 CVE 목록이 포함된 메시지가 이벤트로 반환됩니다.
### 증명(Attestation)을 사용하여 아티팩트 무결성 검증
증명이란 특정 사물 (예: 파이프라인 실행, SBOM) 또는 취약성 스캔 보고서와 같은 다른 사물에 대한 "전제 조건" 또는 "주제", 즉 컨테이너 이미지를 주장하는 암호화 방식으로 서명된 "진술"입니다.
증명을 통해 사용자는 아티팩트가 소프트웨어 공급망의 신뢰할 수 있는 출처에서 나온 것인지 검증할 수 있습니다.예를 들어 이미지에 포함된 모든 소프트웨어 구성 요소나 종속성을 알지 못한 상태에서 컨테이너 이미지를 사용할 수 있습니다. 하지만 컨테이너 이미지 제작자가 어떤 소프트웨어가 존재하는지에 대해 말하는 내용을 신뢰할 수 있다면 제작자의 증명을 이용해 해당 아티팩트를 신뢰할 수 있습니다. 즉, 직접 분석을 수행하는 대신 워크플로우에서 아티팩트를 안전하게 사용할 수 있습니다.
- 증명은 [AWS Signer](https://docs.aws.amazon.com/signer/latest/developerguide/Welcome.html) 또는 [Sigstore cosign](https://github.com/sigstore/cosign/blob/main/doc/cosign_attest.md)을 사용하여 생성할 수 있습니다.
- [Kyverno](https://kyverno.io/)와 같은 쿠버네티스 어드미션 컨트롤러를 사용하여 [증명 확인](https://kyverno.io/docs/writing-policies/verify-images/sigstore/)을 할 수 있습니다.
- 컨테이너 이미지에 증명 생성 및 첨부를 포함한 주제와 함께 오픈 소스 도구를 사용하는 AWS의 소프트웨어 공급망 관리 모범 사례에 대해 자세히 알아보려면 이 [워크샵을](https://catalog.us-east-1.prod.workshops.aws/workshops/49343bb7-2cc5-4001-9d3b-f6a33b3c4442/en-US/0-introduction)을 참조합니다.
### ECR 리포지토리에 대한 IAM 정책 생성
조직에서 공유 AWS 계정 내에서 독립적으로 운영되는 여러 개발 팀이 있는 경우가 드물지 않습니다. 이런 팀이 자산을 공유할 필요가 없는 경우 각 팀이 상호 작용할 수 있는 리포지토리에 대한 액세스를 제한하는 IAM 정책 세트를 만드는 것이 좋습니다. 이를 구현하는 좋은 방법은 ECR [네임스페이스](https://docs.aws.amazon.com/AmazonECR/latest/userguide/Repositories.html#repository-concepts)를 사용하는 것입니다. 네임스페이스는 유사한 리포지토리를 그룹화하는 방법입니다. 예를 들어 팀 A의 모든 레지스트리 앞에 team-a/를 붙이고 팀 B의 레지스트리 앞에는 team-b/ 접두사를 사용할 수 있습니다. 액세스를 제한하는 정책은 다음과 같을 수 있습니다.
```json
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "AllowPushPull",
"Effect": "Allow",
"Action": [
"ecr:GetDownloadUrlForLayer",
"ecr:BatchGetImage",
"ecr:BatchCheckLayerAvailability",
"ecr:PutImage",
"ecr:InitiateLayerUpload",
"ecr:UploadLayerPart",
"ecr:CompleteLayerUpload"
],
"Resource": [
"arn:aws:ecr:<region>:<account_id>:repository/team-a/*"
]
}
]
}
```
### ECR 프라이빗 엔드포인트 사용 고려
ECR API에는 퍼블릭 엔드포인트가 있습니다. 따라서 IAM에서 요청을 인증하고 승인하기만 하면 인터넷에서 ECR 레지스트리에 액세스할 수 있습니다. 클러스터 VPC에 IGW(인터넷 게이트웨이)가 없는 샌드박스 환경에서 운영해야 하는 경우 ECR용 프라이빗 엔드포인트를 구성할 수 있습니다. 프라이빗 엔드포인트를 생성하면 인터넷을 통해 트래픽을 라우팅하는 대신 프라이빗 IP 주소를 통해 ECR API에 비공개로 액세스할 수 있습니다. 이 주제에 대한 추가 정보는 [Amazon ECR 인터페이스 VPC 엔드포인트](https://docs.aws.amazon.com/AmazonECR/latest/userguide/vpc-endpoints.html)를 참조합니다.
### ECR 엔드포인트 정책 구현
기본 엔드포인트 정책은 리전 내의 모든 ECR 리포지토리에 대한 액세스를 허용합니다. 이로 인해 공격자/내부자가 데이터를 컨테이너 이미지로 패키징하고 다른 AWS 계정의 레지스트리로 푸시하여 데이터를 유출할 수 있습니다. 이 위험을 완화하려면 ECR 리포지토리에 대한 API 액세스를 제한하는 엔드포인트 정책을 생성해야 합니다. 예를 들어 다음 정책은 계정의 모든 AWS 원칙이 ECR 리포지토리에 대해서만 모든 작업을 수행하도록 허용합니다.
```json
{
"Statement": [
{
"Sid": "LimitECRAccess",
"Principal": "*",
"Action": "*",
"Effect": "Allow",
"Resource": "arn:aws:ecr:<region>:<account_id>:repository/*"
}
]
}
```
AWS 조직에 속하지 않은 IAM 원칙에 의한 이미지 푸시/풀링을 방지하는 새로운 `PrincipalOrGid` 속성을 사용하는 조건을 설정하여 이를 더욱 개선할 수 있습니다. 자세한 내용은 [AWS:PrincipalorgID](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalorgid)를 참조하십시오.
`com.amazonaws.<region>.ecr.dkr` 및 `com.amazonaws.<region>.ecr.api` 엔드포인트 모두에 동일한 정책을 적용하는 것을 권장합니다.
EKS는 ECR에서 kube-proxy, coredns 및 aws-node용 이미지를 가져오므로, 레지스트리의 계정 ID (예: `602401143452.dkr. ecr.us-west-2.amazonaws.com /*`)를 엔드포인트 정책의 리소스 목록에 추가하거나 "*"에서 가져오기를 허용하고 계정 ID에 대한 푸시를 제한하도록 정책을 변경해야 합니다. 아래 표는 EKS 이미지를 제공하는 AWS 계정과 클러스터 지역 간의 매핑을 보여줍니다.
|Account Number |Region |
| -------------- | ------ |
|602401143452 |All commercial regions except for those listed below |
|--- |--- |
|800184023465 |ap-east-1 - Asia Pacific (Hong Kong) |
|558608220178 |me-south-1 - Middle East (Bahrain) |
|918309763551 |cn-north-1 - China (Beijing) |
|961992271922 |cn-northwest-1 - China (Ningxia) |
엔드포인트 정책 사용에 대한 자세한 내용은 [VPC 엔드포인트 정책을 사용하여 Amazon ECR 액세스 제어](https://aws.amazon.com/blogs/containers/using-vpc-endpoint-policies-to-control-amazon-ecr-access/)를 참조합니다.
### ECR에 대한 수명 주기 정책 구현
[NIST 애플리케이션 컨테이너 보안 가이드](https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.800-190.pdf) 는 "레지스트리의 오래된 이미지"의 위험에 대해 경고하며, 시간이 지나면 취약하고 오래된 소프트웨어 패키지가 포함된 오래된 이미지를 제거하여 우발적인 배포 및 노출을 방지해야 한다고 지적합니다.
각 ECR 저장소에는 이미지 만료 시기에 대한 규칙을 설정하는 수명 주기 정책이 있을 수 있습니다. [AWS 공식 문서](https://docs.aws.amazon.com/AmazonECR/latest/userguide/LifecyclePolicies.html)에는 테스트 규칙을 설정하고 평가한 다음 적용하는 방법이 설명되어 있습니다. 공식 문서에는 리포지토리의 이미지를 필터링하는 다양한 방법을 보여주는 여러 [수명 주기 정책 예제](https://docs.aws.amazon.com/AmazonECR/latest/userguide/lifecycle_policy_examples.html)가 있습니다.
- 이미지 생성시기 또는 개수로 필터링
- 태그 또는 태그가 지정되지 않은 이미지로 필터링
- 여러 규칙 또는 단일 규칙에서 이미지 태그로 필터링
???+ 경고
장기 실행 애플리케이션용 이미지를 ECR에서 제거하면 애플리케이션을 재배포하거나 수평으로 확장할 때 이미지 가져오기 오류가 발생할 수 있습니다.이미지 수명 주기 정책을 사용할 때는 배포와 해당 배포에서 참조하는 이미지를 최신 상태로 유지하고 릴리스/배포의 빈도를 설명하는 [이미지] 만료 규칙을 항상 만들 수 있도록 CI/CD 모범 사례를 마련해야 합니다.
### 선별된 이미지 세트 만들기
개발자가 직접 이미지를 만들도록 허용하는 대신 조직의 다양한 애플리케이션 스택에 대해 검증된 이미지 세트를 만드는 것을 고려해 보세요. 이렇게 하면 개발자는 Dockerfile 작성 방법을 배우지 않고 코드 작성에 집중할 수 있습니다. 변경 사항이 Master에 병합되면 CI/CD 파이프라인은 자동으로 에셋을 컴파일하고, 아티팩트 리포지토리에 저장하고, 아티팩트를 적절한 이미지에 복사한 다음 ECR과 같은 Docker 레지스트리로 푸시할 수 있습니다. 최소한 개발자가 자체 Dockerfile을 만들 수 있는 기본 이미지 세트를 만들어야 합니다. 이상적으로는 Dockerhub에서 이미지를 가져오지 않는 것이 좋습니다. a) 이미지에 무엇이 들어 있는지 항상 알 수는 없고 b) 상위 1000개 이미지 중 약 [1/5](https://www.kennasecurity.com/blog/one-fifth-of-the-most-used-docker-containers-have-at-least-one-critical-vulnerability/)에는 취약점이 있기 때문입니다. 이런 이미지 및 취약성 목록은 [이 사이트](https://vulnerablecontainers.org/)에서 확인할 수 있습니다.
### 루트가 아닌 사용자로 실행하려면 Dockerfile에 USER 지시문을 추가
파드 보안 섹션에서 언급했듯이 컨테이너를 루트로 실행하는 것은 피해야 합니다. 이를 PodSpec의 일부로 구성할 수 있지만 Dockerfile에는 `USER` 디렉티브를 사용하는 것이 좋습니다. `USER` 지시어는 USER 지시문 뒤에 나타나는 `RUN`, `ENTRYPOINT` 또는 `CMD` 명령을 실행할 때 사용할 UID를 설정합니다.
### Dockerfile 린트
Linting을 사용하여 Dockerfile이 사전 정의된 지침(예: 'USER' 지침 포함 또는 모든 이미지에 태그를 지정해야 함)을 준수하는지 확인할 수 있습니다. [dockerfile_lint](https://github.com/projectatomic/dockerfile_lint)는 일반적인 모범 사례를 검증하고 도커파일 린트를 위한 자체 규칙을 구축하는 데 사용할 수 있는 규칙 엔진을 포함하는 RedHat의 오픈소스 프로젝트입니다. 규칙을 위반하는 Dockerfile이 포함된 빌드는 자동으로 실패한다는 점에서 CI 파이프라인에 통합할 수 있습니다.
### 스크래치에서 이미지 빌드
이미지를 구축할 때 컨테이너 이미지의 공격 표면을 줄이는 것이 주요 목표가 되어야 합니다. 이를 위한 이상적인 방법은 취약성을 악용하는 데 사용할 수 있는 바이너리가 없는 최소한의 이미지를 만드는 것입니다. 다행히 도커에는 [`scratch`](https://docs.docker.com/develop/develop-images/baseimages/#create-a-simple-parent-image-using-scratch)에서 이미지를 생성하는 메커니즘이 있습니다. Go와 같은 언어를 사용하면 다음 예제와 같이 정적 연결 바이너리를 만들어 Dockerfile에서 참조할 수 있습니다.
```docker
############################
# STEP 1 build executable binary
############################
FROM golang:alpine AS builder# Install git.
# Git is required for fetching the dependencies.
RUN apk update && apk add --no-cache gitWORKDIR $GOPATH/src/mypackage/myapp/COPY . . # Fetch dependencies.
# Using go get.
RUN go get -d -v# Build the binary.
RUN go build -o /go/bin/hello
############################
# STEP 2 build a small image
############################
FROM scratch# Copy our static executable.
COPY --from=builder /go/bin/hello /go/bin/hello# Run the hello binary.
ENTRYPOINT ["/go/bin/hello"]
```
이렇게 하면 애플리케이션으로만 구성된 컨테이너 이미지가 생성되어 매우 안전합니다.
### ECR과 함께 불변 태그 사용
[변경 불가능한 태그](https://aws.amazon.com/about-aws/whats-new/2019/07/amazon-ecr-now-supports-immutable-image-tags/)를 사용하면 이미지 저장소로 푸시할 때마다 이미지 태그를 업데이트해야 합니다. 이렇게 하면 공격자가 이미지의 태그를 변경하지 않고도 악성 버전으로 이미지를 덮어쓰는 것을 막을 수 있습니다. 또한 이미지를 쉽고 고유하게 식별할 수 있는 방법을 제공합니다.
### 이미지, SBOM, 파이프라인 실행 및 취약성 보고서에 서명
도커가 처음 도입되었을 때는 컨테이너 이미지를 검증하기 위한 암호화 모델이 없었습니다. v2에서 도커는 이미지 매니페스트에 다이제스트를 추가했습니다. 이를 통해 이미지 구성을 해시하고 해시를 사용하여 이미지의 ID를 생성할 수 있었습니다. 이미지 서명이 활성화되면 도커 엔진은 매니페스트의 서명을 확인하여 콘텐츠가 신뢰할 수 있는 출처에서 생성되었으며 변조가 발생하지 않았는지 확인합니다. 각 계층이 다운로드된 후 엔진은 계층의 다이제스트를 확인하여 콘텐츠가 매니페스트에 지정된 콘텐츠와 일치하는지 확인합니다. 이미지 서명을 사용하면 이미지와 관련된 디지털 서명을 검증하여 안전한 공급망을 효과적으로 구축할 수 있습니다.
[AWS Signer](https://docs.aws.amazon.com/signer/latest/developerguide/Welcome.html) 또는 [Sigstore Cosign](https://github.com/sigstore/cosign)을 사용하여 컨테이너 이미지에 서명하고, SBOM에 대한 증명, 취약성 스캔 보고서 및 파이프라인 실행 보고서를 생성할 수 있습니다. 이런 증명은 이미지의 신뢰성과 무결성을 보장하고, 이미지가 실제로 어떠한 간섭이나 변조 없이 신뢰할 수 있는 파이프라인에 의해 생성되었으며, 이미지 게시자가 검증하고 신뢰하는 SBOM에 문서화된 소프트웨어 구성 요소만 포함한다는 것을 보증합니다. 이런 증명을 컨테이너 이미지에 첨부하여 리포지토리로 푸시할 수 있습니다.
다음 섹션에서는 감사 및 어드미션 컨트롤러 검증을 위해 입증된 아티팩트를 사용하는 방법을 살펴보겠습니다.
### 쿠버네티스 어드미션 컨트롤러를 사용한 이미지 무결성 검증
[동적 어드미션 컨트롤러](https://kubernetes.io/blog/2019/03/21/a-guide-to-kubernetes-admission-controllers/)를 사용하여 대상 쿠버네티스 클러스터에 이미지를 배포하기 전에 자동화된 방식으로 이미지 서명과 입증된 아티팩트를 확인하고 아티팩트의 보안 메타데이터가 어드미션 컨트롤러 정책을 준수하는 경우에만 배포를 승인할 수 있습니다.
예를 들어 이미지의 서명을 암호로 확인하는 정책, 입증된 SBOM, 입증된 파이프라인 실행 보고서 또는 입증된 CVE 스캔 보고서를 작성할 수 있습니다.보고서에 데이터를 확인하기 위한 조건을 정책에 작성할 수 있습니다. 예를 들어, CVE 스캔에는 중요한 CVE가 없어야 합니다. 이런 조건을 충족하는 이미지에만 배포가 허용되며 다른 모든 배포는 어드미션 컨트롤러에 의해 거부됩니다.
어드미션 컨트롤러의 예는 다음과 같습니다:
- [Kyverno](https://kyverno.io/)
- [OPA Gatekeeper](https://github.com/open-policy-agent/gatekeeper)
- [Portieris](https://github.com/IBM/portieris)
- [Ratify](https://github.com/deislabs/ratify)
- [Kritis](https://github.com/grafeas/kritis)
- [Grafeas tutorial](https://github.com/kelseyhightower/grafeas-tutorial)
- [Voucher](https://github.com/Shopify/voucher)
### 컨테이너 이미지의 패키지 업데이트
이미지의 패키지를 업그레이드하려면 도커파일에 `apt-get update && apt-get upgrade` 실행을 포함해야 합니다. 업그레이드하려면 루트로 실행해야 하지만 이는 이미지 빌드 단계에서 발생합니다. 애플리케이션을 루트로 실행할 필요는 없습니다. 업데이트를 설치한 다음 USER 지시문을 사용하여 다른 사용자로 전환할 수 있습니다. 기본 이미지를 루트 사용자가 아닌 사용자로 실행하는 경우 루트 사용자로 전환했다가 다시 실행하세요. 기본 이미지 관리자에게만 의존하여 최신 보안 업데이트를 설치하지 마십시오.
`apt-get clean`을 실행하여 `/var/cache/apt/archives/`에서 설치 프로그램 파일을 삭제합니다. 패키지를 설치한 후 `rm -rf /var/lib/apt/lists/*`를 실행할 수도 있습니다. 이렇게 하면 설치할 수 있는 인덱스 파일이나 패키지 목록이 제거됩니다. 이런 명령은 각 패키지 관리자마다 다를 수 있다는 점에 유의하십시오. 예를 들면 다음과 같습니다.
```docker
RUN apt-get update && apt-get install -y \
curl \
git \
libsqlite3-dev \
&& apt-get clean && rm -rf /var/lib/apt/lists/*
```
## 도구 및 리소스
- [docker-slim](https://github.com/docker-slim/docker-slim)는 안전한 최소 이미지를 구축합니다.
- [dockle](https://github.com/goodwithtech/dockle)는 Dockerfile이 보안 이미지 생성 모범 사례와 일치하는지 확인합니다.
- [dockerfile-lint](https://github.com/projectatomic/dockerfile_lint) Rule based linter for Dockerfiles
- [hadolint](https://github.com/hadolint/hadolint)는 도커파일용 규칙 기반 린터입니다.
- [Gatekeeper and OPA](https://github.com/open-policy-agent/gatekeeper)는 정책 기반 어드미션 컨트롤러입니다.
- [Kyverno](https://kyverno.io/)는 쿠버네티스 네이티브 정책 엔진입니다.
- [in-toto](https://in-toto.io/)를 통해 공급망의 특정 단계가 수행될 예정이었는지, 해당 단계가 올바른 행위자에 의해 수행되었는지 사용자가 확인할 수 있습니다.
- [Notary](https://github.com/theupdateframework/notary)는 컨테이너 이미지 서명 프로젝트입니다.
- [Notary v2](https://github.com/notaryproject/nv2)
- [Grafeas](https://grafeas.io/)는 소프트웨어 공급망을 감사 및 관리하기 위한 개방형 아티팩트 메타데이터 API입니다. | eks | search exclude true AWS Dockerhub Dive https github com wagoodman dive SETUID SETGID nc curl SETUID SETGID bash find perm 6000 type f exec ls ld docker RUN find xdev perm 6000 type f exec chmod a s true https docs docker com develop develop images multistage build SBOM Software Bill of Materials SBOM SBOM SBOM SBOM https anchore com SBOM SBOM SBOM CVE SBOM SBOM Amazon Inspector https docs aws amazon com inspector SBOM https docs aws amazon com inspector latest user SBOM export html Syft from Anchore https github com anchore syft SBOM SBOM Amazon ECR OCI SBOM https github com sigstore cosign blob main doc cosign attach attestation md CNCF https project linuxfoundation org hubfs CNCF SSCP v1 pdf Amazon ECR 24 ECR https docs aws amazon com AmazonECR latest userguide image scanning html Clair https github com quay clair https docs aws amazon com AmazonECR latest userguide image scanning enhanced html https aws amazon com inspector pricing Amazon Inspector EventBridge ECR ECR Grype https github com anchore grype Palo Alto Prisma Cloud twistcli https docs paloaltonetworks com prisma prisma cloud prisma cloud admin compute tools twistcli scan images Aqua https www aquasec com Kubei https github com Portshift kubei Trivy https github com aquasecurity trivy Snyk https support snyk io hc en us articles 360003946917 Test images with the Snyk Container CLI Kubernetes API https aws amazon com blogs containers building serverless admission webhooks for kubernetes with aws sam ECR DescribeImagesCanVinds API CVE Attestation SBOM AWS Signer https docs aws amazon com signer latest developerguide Welcome html Sigstore cosign https github com sigstore cosign blob main doc cosign attest md Kyverno https kyverno io https kyverno io docs writing policies verify images sigstore AWS https catalog us east 1 prod workshops aws workshops 49343bb7 2cc5 4001 9d3b f6a33b3c4442 en US 0 introduction ECR IAM AWS IAM ECR https docs aws amazon com AmazonECR latest userguide Repositories html repository concepts A team a B team b json Version 2012 10 17 Statement Sid AllowPushPull Effect Allow Action ecr GetDownloadUrlForLayer ecr BatchGetImage ecr BatchCheckLayerAvailability ecr PutImage ecr InitiateLayerUpload ecr UploadLayerPart ecr CompleteLayerUpload Resource arn aws ecr region account id repository team a ECR ECR API IAM ECR VPC IGW ECR IP ECR API Amazon ECR VPC https docs aws amazon com AmazonECR latest userguide vpc endpoints html ECR ECR AWS ECR API AWS ECR json Statement Sid LimitECRAccess Principal Action Effect Allow Resource arn aws ecr region account id repository AWS IAM PrincipalOrGid AWS PrincipalorgID https docs aws amazon com IAM latest UserGuide reference policies condition keys html condition keys principalorgid com amazonaws region ecr dkr com amazonaws region ecr api EKS ECR kube proxy coredns aws node ID 602401143452 dkr ecr us west 2 amazonaws com ID EKS AWS Account Number Region 602401143452 All commercial regions except for those listed below 800184023465 ap east 1 Asia Pacific Hong Kong 558608220178 me south 1 Middle East Bahrain 918309763551 cn north 1 China Beijing 961992271922 cn northwest 1 China Ningxia VPC Amazon ECR https aws amazon com blogs containers using vpc endpoint policies to control amazon ecr access ECR NIST https nvlpubs nist gov nistpubs SpecialPublications NIST SP 800 190 pdf ECR AWS https docs aws amazon com AmazonECR latest userguide LifecyclePolicies html https docs aws amazon com AmazonECR latest userguide lifecycle policy examples html ECR CI CD Dockerfile Master CI CD ECR Docker Dockerfile Dockerhub a b 1000 1 5 https www kennasecurity com blog one fifth of the most used docker containers have at least one critical vulnerability https vulnerablecontainers org Dockerfile USER PodSpec Dockerfile USER USER USER RUN ENTRYPOINT CMD UID Dockerfile Linting Dockerfile USER dockerfile lint https github com projectatomic dockerfile lint RedHat Dockerfile CI scratch https docs docker com develop develop images baseimages create a simple parent image using scratch Go Dockerfile docker STEP 1 build executable binary FROM golang alpine AS builder Install git Git is required for fetching the dependencies RUN apk update apk add no cache gitWORKDIR GOPATH src mypackage myapp COPY Fetch dependencies Using go get RUN go get d v Build the binary RUN go build o go bin hello STEP 2 build a small image FROM scratch Copy our static executable COPY from builder go bin hello go bin hello Run the hello binary ENTRYPOINT go bin hello ECR https aws amazon com about aws whats new 2019 07 amazon ecr now supports immutable image tags SBOM v2 ID AWS Signer https docs aws amazon com signer latest developerguide Welcome html Sigstore Cosign https github com sigstore cosign SBOM SBOM https kubernetes io blog 2019 03 21 a guide to kubernetes admission controllers SBOM CVE CVE CVE Kyverno https kyverno io OPA Gatekeeper https github com open policy agent gatekeeper Portieris https github com IBM portieris Ratify https github com deislabs ratify Kritis https github com grafeas kritis Grafeas tutorial https github com kelseyhightower grafeas tutorial Voucher https github com Shopify voucher apt get update apt get upgrade USER apt get clean var cache apt archives rm rf var lib apt lists docker RUN apt get update apt get install y curl git libsqlite3 dev apt get clean rm rf var lib apt lists docker slim https github com docker slim docker slim dockle https github com goodwithtech dockle Dockerfile dockerfile lint https github com projectatomic dockerfile lint Rule based linter for Dockerfiles hadolint https github com hadolint hadolint Gatekeeper and OPA https github com open policy agent gatekeeper Kyverno https kyverno io in toto https in toto io Notary https github com theupdateframework notary Notary v2 https github com notaryproject nv2 Grafeas https grafeas io API |
eks exclude true EKS search | ---
search:
exclude: true
---
# 네트워크 보안
네트워크 보안에는 여러 측면이 있습니다. 첫 번째는 서비스 간의 네트워크 트래픽 흐름을 제한하는 규칙 적용과 관련됩니다. 두 번째는 전송 중인 트래픽의 암호화와 관련이 있습니다. EKS에서 이런 보안 조치를 구현하는 메커니즘은 다양하지만 종종 다음 항목을 포함합니다.
## 트래픽 관리
- 네트워크 정책
- 보안 그룹
## 네트워크 암호화
- 서비스 메시
- 컨테이너 네트워크 인터페이스(CNI)
- 인그레스 컨트롤러와 로드밸런서
- Nitro 인스턴스
- cert-manager와 ACM Private CA
## 네트워크 정책
쿠버네티스 클러스터 내에서는 기본적으로 모든 파드와 파드 간의 통신이 허용된다. 이러한 유연성은 실험을 촉진하는 데 도움이 될 수 있지만 안전한 것으로 간주되지는 않습니다. 쿠버네티스 네트워크 정책은 파드 간 통신(East/West 트래픽이라고도 함)과 파드와 외부 서비스 간의 네트워크 트래픽을 제한하는 메커니즘을 제공합니다. 쿠버네티스 네트워크 정책은 OSI 모델의 계층 3과 4에서 작동합니다. 네트워크 정책은 파드, 네임스페이스 셀렉터 및 레이블을 사용하여 소스 및 대상 파드를 식별하지만 IP 주소, 포트 번호, 프로토콜 또는 이들의 조합을 포함할 수도 있습니다. 네트워크 정책은 파드에 대한 인바운드 또는 아웃바운드 연결 모두에 적용할 수 있으며, 이를 인그레스(ingress) 및 이그레스(egress) 규칙이라고도 합니다.
Amazon VPC CNI 플러그인의 기본 네트워크 정책 지원을 통해 네트워크 정책을 구현하여 쿠버네티스 클러스터의 네트워크 트래픽을 보호할 수 있습니다. 이는 업스트림 쿠버네티스 네트워크 정책 API와 통합되어 호환성과 쿠버네티스 표준 준수를 보장합니다. 업스트림 API에서 지원하는 다양한 [식별자](https://kubernetes.io/docs/concepts/services-networking/network-policies/)를 사용하여 정책을 정의할 수 있습니다. 기본적으로 모든 수신 및 송신 트래픽은 파드에 허용됩니다. PolicyType Ingress가 포함된 네트워크 정책을 지정하는 경우 파드 노드의 연결과 인그레스 규칙에서 허용하는 연결만 파드에 대한 연결만 허용됩니다. 이그레스 규칙에도 동일하게 적용됩니다. 여러 규칙이 정의된 경우 결정을 내릴 때 모든 규칙의 통합을 고려합니다. 따라서 평가 순서는 정책 결과에 영향을 미치지 않습니다.
!!! attention
EKS 클러스터를 처음 프로비저닝할 때 VPC CNI 네트워크 정책 기능은 기본적으로 활성화되지 않습니다. 지원되는 VPC CNI 애드온 버전을 배포했는지 확인하고 vpc-cni 애드온에서 `ENABLE_NETWORK_POLICY` 플래그를 `true`로 설정하여 이를 활성화하세요. 자세한 지침은 [Amazon EKS 사용자 가이드](https://docs.aws.amazon.com/eks/latest/userguide/managing-vpc-cni.html)를 참조하십시오.
## 권장사항
### 네트워크 정책 시작하기 - 최소 권한 원칙 적용
### 디폴트 거부(deny) 정책 만들기
RBAC 정책과 마찬가지로 네트워크 정책에서도 최소 권한 액세스 원칙을 따르는 것이 좋습니다. 먼저 네임스페이스 내에서 모든 인바운드 및 아웃바운드 트래픽을 제한하는 '모두 거부' 정책을 만드세요.
```yaml
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: default-deny
namespace: default
spec:
podSelector: {}
policyTypes:
- Ingress
- Egress
```
![default-deny]( ./images/default-deny.jpg )
!!! tip
위 이미지는 [Tufin](https://orca.tufin.io/netpol/)의 네트워크 정책 뷰어로 생성되었습니다.
### DNS 쿼리를 허용하는 규칙 만들기
기본 거부 모든 규칙을 적용한 후에는 파드가 이름 확인을 위해 CoreDNS를 쿼리하도록 허용하는 전역 규칙과 같은 추가 규칙에 계층화를 시작할 수 있습니다. 네임스페이스에 레이블을 지정하여 시작합니다.
```yaml
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: allow-dns-access
namespace: default
spec:
podSelector:
matchLabels: {}
policyTypes:
- Egress
egress:
- to:
- namespaceSelector:
matchLabels:
kubernetes.io/metadata.name: kube-system
podSelector:
matchLabels:
k8s-app: kube-dns
ports:
- protocol: UDP
port: 53
```
![allow-dns-access](./images/allow-dns-access.jpg)
#### 네임스페이스/파드 간 트래픽 흐름을 선택적으로 허용하는 규칙을 점진적으로 추가
애플리케이션 요구 사항을 이해하고 필요에 따라 세분화된 수신 및 송신 규칙을 생성하십시오. 아래 예는 포트 80의 인그레스 트래픽을 `client-one`에서 `app-one`으로 제한하는 방법을 보여줍니다. 이렇게 하면 공격 표면을 최소화하고 인증되지 않은 접근에 대한 위험을 줄일 수 있습니다.
```yaml
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: allow-ingress-app-one
namespace: default
spec:
podSelector:
matchLabels:
k8s-app: app-one
policyTypes:
- Ingress
ingress:
- from:
- podSelector:
matchLabels:
k8s-app: client-one
ports:
- protocol: TCP
port: 80
```
![allow-ingress-app-one](./images/allow-ingress-app-one.png)
### 네트워크 정책 적용 모니터링
- **네트워크 정책 편집기 사용**
- [네트워크 정책 편집기](https://networkpolicy.io/)는 네트워크 흐름 로그의 시각화, 보안 점수, 자동 생성을 지원합니다.
- 상호활동적으로 네트워크 정책 구성하세요.
- **로그 감사**
- EKS 클러스터의 감사 로그를 정기적으로 검토하세요.
- 감사 로그는 네트워크 정책 변경을 포함하여 클러스터에서 수행된 작업에 대한 풍부한 정보를 제공합니다.
- 이 정보를 사용하여 시간 경과에 따른 네트워크 정책 변경 사항을 추적하고 승인되지 않았거나 예상치 못한 변경을 감지할 수 있습니다.
- **테스트 자동화**
- 운영 환경을 미러링하는 테스트 환경을 만들고 네트워크 정책을 위반하려는 워크로드를 정기적으로 배포하여 자동화된 테스트를 구현하십시오.
- **메트릭 지표 모니터링**
- VPC CNI 노드 에이전트에서 프로메테우스 메트릭을 수집하도록 옵저버빌리티 에이전트를 구성하여 에이전트 상태 및 SDK 오류를 모니터링할 수 있습니다.
- **정기적으로 네트워크 정책을 감사**
- 네트워크 정책을 정기적으로 감사하여 현재 애플리케이션 요구 사항을 충족하는지 확인하십시오.애플리케이션이 발전함에 따라 감사를 통해 중복된 인그레스, 이그레스 규칙을 제거하고 애플리케이션에 과도한 권한이 부여되지 않도록 할 수 있습니다.
- **Open Policy Agent(OPA)를 사용하여 네트워크 정책이 존재하는지 확인**
- 아래와 같은 OPA 정책을 사용하여 애플리케이션 파드를 온보딩하기 전에 네트워크 정책이 항상 존재하는지 확인하십시오. 이 정책은 해당 네트워크 정책이 없는 경우 `k8s-app: sample-app`이라는 레이블이 붙은 k8s 파드의 온보딩을 거부합니다.
```javascript
package kubernetes.admission
import data.kubernetes.networkpolicies
deny[msg] {
input.request.kind.kind == "Pod"
pod_label_value := {v["k8s-app"] | v := input.request.object.metadata.labels}
contains_label(pod_label_value, "sample-app")
np_label_value := {v["k8s-app"] | v := networkpolicies[_].spec.podSelector.matchLabels}
not contains_label(np_label_value, "sample-app")
msg:= sprintf("The Pod %v could not be created because it is missing an associated Network Policy.", [input.request.object.metadata.name])
}
contains_label(arr, val) {
arr[_] == val
}
```
### 문제 해결 (트러블슈팅)
#### vpc-network-policy-controller 및 node-agent 로그 모니터링
EKS 컨트롤 플레인의 컨트롤러 매니저 로그를 활성화하여 네트워크 정책 기능을 진단합니다. 컨트롤 플레인 로그를 CloudWatch 로그 그룹으로 스트리밍하고 [CloudWatch Log Insights](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AnalyzingLogData.html)를 사용하여 고급 쿼리를 수행할 수 있습니다. 로그에서 네트워크 정책으로 확인된 파드 엔드포인트 객체, 정책의 조정 상태를 확인하고 정책이 예상대로 작동하는지 디버깅할 수 있습니다.
또한 Amazon VPC CNI를 사용하면 EKS 워커 노드에서 정책 적용 로그를 수집하고 [Amazon Cloudwatch](https://aws.amazon.com/cloudwatch/) 로 내보낼 수 있습니다. 활성화되면 [CloudWatch Container Insights](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ContainerInsights.html)를 활용하여 네트워크 정책과 관련된 사용에 대한 통찰력을 제공할 수 있습니다.
또한 Amazon VPC CNI는 노드 내 eBPF 프로그램과 상호 작용할 수 있는 인터페이스를 제공하는 SDK를 제공합니다. SDK는 `aws-node`가 노드에 배포될 때 설치됩니다. 노드의 `/opt/cni/bin` 디렉터리에서 설치된 SDK 바이너리를 찾을 수 있습니다. 출시 시 SDK는 eBPF 프로그램 및 맵 검사와 같은 기본 기능을 지원합니다.
```shell
sudo /opt/cni/bin/aws-eks-na-cli ebpf progs
```
#### 네트워크 트래픽 메타데이터 로깅
[AWS VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)는 VPC를 통과하는 트래픽에 대한 메타데이터(예: 소스 및 대상 IP 주소, 포트)를 허용/드랍된 패킷과 함께 캡처합니다. 이 정보를 분석하여 VPC 내 리소스(파드 포함) 간에 의심스럽거나 특이한 활동이 있는지 확인할 수 있습니다. 하지만 파드의 IP 주소는 교체될 때 자주 변경되므로 플로우 로그만으로는 충분하지 않을 수 있다. Calico Enterprise는 파드 레이블 및 기타 메타데이터를 사용하여 플로우 로그를 확장하여 파드 간 트래픽 흐름을 더 쉽게 해독할 수 있도록 합니다.
## 보안 그룹
EKS는 [AWS VPC 보안 그룹](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html)(SG)을 사용하여 쿠버네티스 컨트롤 플레인과 클러스터의 워커 노드 사이의 트래픽을 제어합니다. 보안 그룹은 워커 노드, 기타 VPC 리소스 및 외부 IP 주소 간의 트래픽을 제어하는 데에도 사용됩니다. EKS 클러스터 (쿠버네티스 버전 1.14-eks.3 이상)를 프로비저닝하면 클러스터 보안 그룹이 자동으로 생성됩니다. 이 보안 그룹은 EKS 컨트롤 플레인과 관리형 노드 그룹의 노드 간의 자유로운 통신을 허용합니다. 단순화를 위해 비관리형 노드 그룹을 포함한 모든 노드 그룹에 클러스터 SG를 추가하는 것이 좋습니다.
쿠버네티스 버전 1.14 및 EKS 버전 eks.3 이전에는 EKS 컨트롤 플레인 및 노드 그룹에 대해 별도의 보안 그룹이 구성되었습니다. 컨트롤 플레인 및 노드 그룹 보안 그룹에 대한 최소 및 권장 규칙은 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)에서 확인할 수 있습니다. _컨트롤 플레인 보안 그룹_ 의 최소 규칙에 따라 워커 노드 보안그룹에서 포트 443을 인바운드할 수 있습니다. 이 규칙은 kubelets가 쿠버네티스 API 서버와 통신할 수 있도록 하는 규칙입니다. 또한 워커 노드 보안그룹로의 아웃바운드 트래픽을 위한 포트 10250도 포함되어 있습니다. 10250은 kubelet이 수신하는 포트입니다. 마찬가지로 최소 _노드 그룹_ 규칙은 컨트롤 플레인 보안그룹에서 포트 10250을 인바운드하고 컨트롤 플레인 보안그룹로 아웃바운드하는 443을 허용합니다. 마지막으로 노드 그룹 내 노드 간의 자유로운 통신을 허용하는 규칙이 있습니다.
클러스터 내에서 실행되는 서비스와 RDS 데이터베이스와 같이 클러스터 외부에서 실행되는 서비스 간의 통신을 제어해야 하는 경우 [파드용 보안 그룹](https://docs.aws.amazon.com/eks/latest/userguide/security-groups-for-pods.html)을 고려해 보세요. 파드용 보안 그룹을 사용하면 파드 컬렉션에 **기존** 보안 그룹을 할당할 수 있다.
!!! warning
파드를 생성하기 전에 존재하지 않는 보안 그룹을 참조하는 경우, 파드는 스케줄링되지 않는다.
`SecurityGroupPolicy` 객체를 생성하고 `PodSelector` 또는 `ServiceAccountSelector`를 지정하여 어떤 파드를 보안 그룹에 할당할지 제어할 수 있습니다. 셀렉터를 `{}`로 설정하면 `SecurityGroupPolicy`에서 참조하는 보안그룹이 네임스페이스의 모든 파드 또는 네임스페이스의 모든 서비스 어카운트에 할당됩니다. 파드용 보안 그룹을 구현하기 전에 [고려 사항](https://docs.aws.amazon.com/eks/latest/userguide/security-groups-for-pods.html#security-groups-pods-considerations)을 모두 숙지해야 합니다.
!!! important
파드에 보안그룹을 사용하는 경우 클러스터 보안 그룹에 포트 53이 아웃바운드되도록 허용하는 보안그룹을 생성해야 합니다. 마찬가지로, 파드 보안 그룹의 포트 53 인바운드 트래픽을 허용하도록 클러스터 보안 그룹을 업데이트해야 합니다.
!!! important
파드용 보안 그룹을 사용할 때에도 [보안 그룹 제한사항](https://docs.aws.amazon.com/vpc/latest/userguide/amazon-vpc-limits.html#vpc-limits-security-groups)이 여전히 적용되므로 신중하게 사용해야 합니다.
!!! important
파드에 구성된 모든 프로브에 대해 클러스터 보안 그룹 (kubelet)의 인바운드 트래픽에 대한 규칙을 **필수** 생성해야 합니다.
!!! important
파드의 보안 그룹은 EC2 인스턴스의 여러 개의 ENI를 할당 하기 위해 [ENI 트렁킹](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/container-instance-eni.html) 기능을 사용합니다. 파드가 보안그룹에 할당되면 VPC 컨트롤러는 노드 그룹의 브랜치 ENI를 파드와 연결합니다. 파드가 예약될 때 노드그룹에서 사용할 수 있는 브랜치 ENI가 충분하지 않은 경우 파드는 보류 상태로 유지됩니다. 인스턴스가 지원할 수 있는 브랜치 ENI의 수는 인스턴스 유형/패밀리에 따라 다릅니다. 자세한 내용은 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/security-groups-for-pods.html#supported-instance-types)를 참조하십시오.
파드용 보안 그룹은 정책 데몬의 오버헤드 없이 클러스터 내부 및 외부의 네트워크 트래픽을 제어할 수 있는 AWS 네이티브 방법을 제공하지만 다른 옵션도 사용할 수 있습니다. 예를 들어 Cilium 정책 엔진을 사용하면 네트워크 정책에서 DNS 이름을 참조할 수 있습니다. Calico Enterprise에는 네트워크 정책을 AWS 보안 그룹에 매핑하는 옵션이 포함되어 있습니다. Istio와 같은 서비스 메시를 구현한 경우, 이그레스 게이트웨이를 사용하여 네트워크 송신을 검증된 특정 도메인 또는 IP 주소로 제한할 수 있습니다. 이 옵션에 대한 자세한 내용은 [Istio의 이그레스 트래픽 제어](https://istio.io/blog/2019/egress-traffic-control-in-istio-part-1/)에 대한 3부작 시리즈를 참조하십시오.
## 언제 네트워크 정책과 파드용 보안 그룹을 사용해야 할까요?
### 쿠버네티스 네트워크 정책을 사용하는 경우
- **파드-파드 간 트래픽 제어**
- 클러스터 내 파드 간 네트워크 트래픽(이스트-웨스트 트래픽) 제어에 적합
- **IP 주소 또는 포트 수준에서 트래픽 제어 (OSI 계층 3 또는 4)**
### 파드용 AWS 보안 그룹(SGP) 을 사용해야 하는 경우
- **기존 AWS 구성 활용**
- AWS 서비스에 대한 액세스를 관리하는 복잡한 EC2 보안 그룹이 이미 있고 애플리케이션을 EC2 인스턴스에서 EKS로 마이그레이션하는 경우 SGP는 보안 그룹 리소스를 재사용하고 이를 파드에 적용할 수 있는 매우 좋은 선택이 될 수 있습니다.
- **AWS 서비스에 대한 접근 제어**
- EKS 클러스터 내에서 실행되는 애플리케이션이 다른 AWS 서비스(RDS 데이터베이스)와 통신하려는 경우 SGP를 효율적인 메커니즘으로 사용하여 파드에서 AWS 서비스로의 트래픽을 제어합니다.
- **파드 및 노드 트래픽 격리**
- 파드 트래픽을 나머지 노드 트래픽과 완전히 분리하려면 `POD_SECURITY_GROUP_ENFORCING_MODE=strict` 모드에서 SGP를 사용하십시오.
### `파드용 보안 그룹` 및 `네트워크 정책` 모범 사례
- **레이어별 보안**
- 계층화된 보안 접근 방식을 위해 SGP와 쿠버네티스 네트워크 정책을 함께 사용하십시오.
- SGP를 사용하여 클러스터에 속하지 않은 AWS 서비스에 대한 네트워크 수준 액세스를 제한하는 반면, 쿠버네티스 네트워크 정책은 클러스터 내 파드 간 네트워크 트래픽을 제한할 수 있습니다.
- **최소 권한 원칙**
- 파드 또는 네임스페이스 간에 필요한 트래픽만 허용
- **애플리케이션 격리**
- 가능한 경우 네트워크 정책에 따라 애플리케이션을 구분하여 애플리케이션이 손상된 경우 침해 범위를 줄이십시오.
- **정책을 단순하고 명확하게 유지**
- 쿠버네티스 네트워크 정책은 매우 세밀하고 복잡할 수 있으므로 잘못된 구성의 위험을 줄이고 관리 오버헤드를 줄이려면 가능한 한 단순하게 유지하는 것이 가장 좋습니다.
- **공격 범위 축소**
- 애플리케이션 노출을 제한하여 공격 표면을 최소화합니다.
!!! caution
파드용 보안 그룹은 `strict`과 `standard`이라는 두 가지 적용 모드를 제공합니다. EKS 클러스터의 파드 기능에 네트워크 정책과 보안 그룹을 모두 사용할 때는 `standard` 모드를 사용해야 합니다.
네트워크 보안과 관련해서는 계층화된 접근 방식이 가장 효과적인 솔루션인 경우가 많습니다. 쿠버네티스 네트워크 정책과 SGP를 함께 사용하면 EKS에서 실행되는 애플리케이션을 위한 강력한 심층 방어 전략을 제공할 수 있습니다.
## 서비스 메시 정책 적용 또는 쿠버네티스 네트워크 정책
'서비스 메시'는 애플리케이션에 추가할 수 있는 전용 인프라 계층입니다. 이를 통해 가시성, 트래픽 관리, 보안 등의 기능을 자체 코드에 추가하지 않고도 투명하게 추가할 수 있습니다.
서비스 메시는 OSI 모델의 계층 7 (애플리케이션) 에서 정책을 적용하는 반면, 쿠버네티스 네트워크 정책은 계층 3 (네트워크) 및 계층 4 (전송) 에서 작동합니다.이 분야에는 AWS AppMesh, Istio, Linkerd 등과 같은 다양한 제품이 있습니다.
### 정책 시행에 서비스 메시를 사용하는 경우
- 서비스 메쉬가 구성되어 있는 경우
- 트래픽 관리, 옵저버빌리티 및 보안과 같은 고급 기능이 필요한 경우
- 트래픽 제어, 로드 밸런싱, 서킷 브레이킹, 속도 제한, 타임아웃 등
- 서비스가 잘 동작하는지에 대한 자세한 인사이트 (레이턴시, 오류율, 초당 요청 수, 요청량 등)
- mTLS과 같은 보안 기능을 위해 서비스 메시를 구현하고 활용하고자 합니다.
### 더 간단한 사용 사례를 위해 쿠버네티스 네트워크 정책을 선택하세요
- 서로 통신할 수 있는 파드를 제한하세요.
- 네트워크 정책은 서비스 메시보다 필요한 리소스가 적기 때문에 단순한 사용 사례나 서비스 메시의 실행 및 관리 오버헤드가 정당하지 않을 수 있는 소규모 클러스터에 적합합니다.
!!! tip
네트워크 정책과 서비스 메시를 함께 사용할 수도 있습니다. 네트워크 정책을 사용하여 파드 간에 기본 수준의 보안 및 격리를 제공한 다음 서비스 메시를 사용하여 트래픽 관리, 관찰 가능성 및 보안과 같은 추가 기능을 추가합니다.
## 서드파티 네트워크 정책 엔진
글로벌 네트워크 정책, DNS 호스트 이름 기반 규칙 지원, 계층 7 규칙, 서비스 어카운트 기반 규칙, 명시적 거부/로그 작업 등과 같은 고급 정책 요구 사항이 있는 경우 타사 네트워크 정책 엔진을 고려해 보십시오. [Calico](https://docs.projectcalico.org/introduction/)는 EKS와 잘 작동하는 [Tigera](https://tigera.io)의 오픈 소스 정책 엔진입니다. Calico는 Kubernetes 네트워크 정책 기능 전체를 구현하는 것 외에도 Istio와 통합될 경우 계층 7 규칙 (예: HTTP)에 대한 지원을 포함하여 더 다양한 기능을 갖춘 확장 네트워크 정책을 지원합니다. Calico 정책의 범위는 네임스페이스, 파드, 서비스 어카운트 또는 전 세계로 지정할 수 있습니다. 정책 범위를 서비스 어카운트으로 지정하면 수신/송신 규칙 집합이 해당 서비스 어카운트과 연결됩니다. 적절한 RBAC 규칙을 적용하면 팀에서 이런 규칙을 재정의하는 것을 방지하여 IT 보안 전문가가 네임스페이스 관리를 안전하게 위임할 수 있습니다. 마찬가지로 [Cilium](https://cilium.readthedocs.io/en/stable/intro/)의 관리자들도 HTTP와 같은 계층 7 규칙에 대한 부분적 지원을 포함하도록 네트워크 정책을 확장했습니다. 또한 Cilium은 DNS 호스트 이름을 지원하는데, 이는 쿠버네티스 서비스/파드와 VPC 내부 또는 외부에서 실행되는 리소스 간의 트래픽을 제한하는 데 유용할 수 있다. 반대로 Calico Enterprise에는 쿠버네티스 네트워크 정책을 AWS 보안 그룹과 DNS 호스트 이름에 매핑할 수 있는 기능이 포함되어 있습니다.
[이 Github 프로젝트](https://github.com/ahmetb/kubernetes-network-policy-recipes)에서 일반적인 쿠버네티스 네트워크 정책 목록을 찾을 수 있습니다. Calico에 대한 유사한 규칙 세트는 [Calico 문서](https://docs.projectcalico.org/security/calico-network-policy)에서 확인할 수 있습니다.
### Amazon VPC CNI 네트워크 정책 엔진으로 마이그레이션
일관성을 유지하고 예상치 못한 파드 통신 동작을 방지하려면 클러스터에 네트워크 정책 엔진을 하나만 배포하는 것이 좋습니다. 3P에서 VPC CNI 네트워크 정책 엔진으로 마이그레이션하려는 경우 VPC CNI 네트워크 정책 지원을 활성화하기 전에 기존 3P 네트워크 정책 CRD를 쿠버네티스 네트워크 정책 리소스로 변환하는 것이 좋습니다. 또한 마이그레이션된 정책을 프로덕션 환경에 적용하기 전에 별도의 테스트 클러스터에서 테스트하세요. 이를 통해 파드 통신 동작의 잠재적 문제나 불일치를 식별하고 해결할 수 있습니다.
#### 마이그레이션 도구
마이그레이션 프로세스를 지원하기 위해 기존 Calico/Cilium 네트워크 정책 CRD를 쿠버네티스 네이티브 네트워크 정책으로 변환하는 [K8s Network Policy Migrator](https://github.com/awslabs/k8s-network-policy-migrator) 도구를 개발했습니다. 변환 후에는 VPC CNI 네트워크 정책 컨트롤러를 실행하는 새 클러스터에서 변환된 네트워크 정책을 직접 테스트할 수 있습니다. 이 도구는 마이그레이션 프로세스를 간소화하고 원활한 전환을 보장하도록 설계되었습니다.
!!! important
마이그레이션 도구는 네이티브 쿠버네티스 네트워크 정책 API와 호환되는 서드파티 정책만 변환합니다. 서드파티 플러그인이 제공하는 고급 네트워크 정책 기능을 사용하는 경우 마이그레이션 도구는 해당 기능을 건너뛰고 보고합니다.
참고로, 마이그레이션 도구는 현재 AWS VPC CNI 네트워크 정책 엔지니어링 팀에서 지원하지 않으며, 고객이 최선의 노력을 기울여 사용할 수 있도록 만들어졌습니다. 마이그레이션 프로세스를 원활하게 진행하려면 이 도구를 활용하는 것이 좋습니다. 도구에서 문제나 버그가 발생하는 경우 [Github 이슈](https://github.com/awslabs/k8s-network-policy-migrator/issues)를 생성해 주시기 바랍니다. 여러분의 피드백은 우리에게 매우 소중하며 서비스를 지속적으로 개선하는 데 도움이 됩니다.
### 추가 리소스
- [Kubernetes & Tigera: 네트워크 정책, 보안 및 감사](https://youtu.be/lEY2WnRHYpg)
- [Calico Enterprise](https://www.tigera.io/tigera-products/calico-enterprise/)
- [Cilium](https://cilium.readthedocs.io/en/stable/intro/)
- [NetworkPolicy Editor](https://cilium.io/blog/2021/02/10/network-policy-editor) Cilium의 대화형 정책 편집자
- [Inspektor Gadget advise network-policy gadget](https://www.inspektor-gadget.io/docs/latest/gadgets/advise/network-policy/)는 네트워크 트래픽 분석을 기반으로 네트워크 정책을 제안합니다.
## 전송 암호화
PCI, HIPAA 또는 기타 규정을 준수해야 하는 애플리케이션은 전송 중에 데이터를 암호화해야 합니다. 오늘날 TLS는 유선 트래픽을 암호화하기 위한 사실상 표준 방식입니다. TLS는 이전 SSL과 마찬가지로 암호화 프로토콜을 사용하여 네트워크를 통해 보안 통신을 제공합니다. TLS는 세션 시작 시 협상되는 공유 암호를 기반으로 데이터를 암호화하는 키를 생성하는 대칭 암호화를 사용합니다. 다음은 쿠버네티스 환경에서 데이터를 암호화할 수 있는 몇 가지 방법입니다.
### Nitro 인스턴스
다음 Nitro 인스턴스 유형 (예: C5n, G4, I3en, M5dn, M5n, P3dn, R5dn, R5n)간에 교환되는 트래픽은 기본적으로 자동 암호화됩니다. Transit Gateway 또는 로드밸런서와 같이 중간 홉이 있는 경우 트래픽은 암호화되지 않습니다. 전송 중 암호화에 대한 자세한 내용과 기본적으로 네트워크 암호화를 지원하는 인스턴스 유형의 전체 목록은 [전송 암호화 문서](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html#encryption-transit)를 참조하십시오.
### 컨테이너 네트워크 인터페이스(CNI)
[WeAvenet](https://www.weave.works/oss/net/)은 슬리브 트래픽(더 느린 패킷 포워딩 접근 방식)에는 NaCL 암호화를 사용하고 빠른 데이터 경로 트래픽에는 IPsec ESP를 사용하여 모든 트래픽을 자동으로 암호화하도록 구성할 수 있습니다.
### 서비스 메시
전송 중 암호화는 AppMesh, Linkerd v2 및 Istio와 같은 서비스 메시를 사용하여 구현할 수도 있습니다. AppMesh는 X.509 인증서 또는 Envoy의 비밀 검색 서비스(SDS)를 사용하는 [mTLS](https://docs.aws.amazon.com/app-mesh/latest/userguide/mutual-tls.html)를 지원합니다. Linkerd와 Istio 모두 mTLS를 지원합니다.
[aws-app-mesh-examples](https://github.com/aws/aws-app-mesh-examples) GitHub 리포지토리는 X.509 인증서 및 SPIRE를 Envoy 컨테이너와 함께 SDS 공급자로 사용하여 MTL을 구성하는 방법을 제공합니다:
- [X.509 인증서를 사용하여 mTLS 구성](https://github.com/aws/aws-app-mesh-examples/tree/main/walkthroughs/howto-k8s-mtls-file-based)
- [SPIRE (SDS) 를 사용하여 TLS 구성](https://github.com/aws/aws-app-mesh-examples/tree/main/walkthroughs/howto-k8s-mtls-sds-based)
또한 App Mesh는 [AWS Certificate Manager](https://docs.aws.amazon.com/acm/latest/userguide/acm-overview.html)(ACM)에서 발급한 사설 인증서 또는 가상 노드의 로컬 파일 시스템에 저장된 인증서를 사용하여 [TLS 암호화](https://docs.aws.amazon.com/app-mesh/latest/userguide/virtual-node-tls.html)를 지원합니다.
- [aws-app-mesh-examples](https://github.com/aws/aws-app-mesh-examples) GitHub 리포지토리는 ACM에서 발급한 인증서 및 Envoy 컨테이너와 함께 패키징된 인증서를 사용하여 TLS를 구성하는 방법을 안내합니다:
- [파일 제공 TLS 인증서를 사용하여 TLS 구성](https://github.com/aws/aws-app-mesh-examples/tree/master/walkthroughs/howto-tls-file-provided)
- [AWS Certificate Manager를 사용하여 TLS 구성](https://github.com/aws/aws-app-mesh-examples/tree/master/walkthroughs/tls-with-acm)
### 인그레스 컨트롤러 및 로드밸런서
인그레스 컨트롤러는 클러스터 외부에서 발생하는 HTTP/S 트래픽을 클러스터 내에서 실행되는 서비스로 지능적으로 라우팅하는 방법입니다. 이런 인그레스 앞에 CLB(Classic Load Balancer) 또는 NLB(Network Load Balancer)와 같은 레이어 4 로드밸런서가 있는 경우가 많습니다. 암호화된 트래픽은 네트워크 내 여러 위치 (예: 로드밸런서, 인그레스 리소스, 파드) 에서 종료될 수 있다. SSL 연결을 종료하는 방법과 위치는 궁극적으로 조직의 네트워크 보안 정책에 따라 결정됩니다. 예를 들어 엔드 투 엔드 암호화를 요구하는 정책이 있는 경우 Pod에서 트래픽을 해독해야 합니다. 이렇게 되면 파드가 초기 핸드셰이크를 설정하는 데 많은 시간을 소비해야 하므로 파드에 추가적인 부담이 가중됩니다. 전체 SSL/TLS 처리는 CPU 집약도가 매우 높습니다. 따라서 유연성이 있다면 인그레스 또는 로드밸런서에서 SSL 오프로드를 수행해 보세요.
#### AWS Elastic 로드밸런서를 통한 암호화 사용
[AWS Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)(ALB) 및 [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)(NLB) 모두 전송 암호화(SSL 및 TLS)를 지원합니다. ALB에 대한 `alb.ingress.kubernetes.io/certificate-arn` 어노테이션을 사용하면 ALB에 추가할 인증서를 지정할 수 있습니다. 어노테이션을 생략하면 컨트롤러는 호스트 필드를 사용하여 사용 가능한 [AWS Certificate Manager (ACM)](https://docs.aws.amazon.com/acm/latest/userguide/acm-overview.html)인증서를 일치시켜 인증서를 필요로 하는 리스너에 인증서를 추가하려고 시도합니다. EKS v1.15부터 아래 예와 같이 NLB와 함께 `service.beta.kubernetes.io/aws-load-balancer-ssl-cert` 어노테이션을 사용할 수 있습니다.
```yaml
apiVersion: v1
kind: Service
metadata:
name: demo-app
namespace: default
labels:
app: demo-app
annotations:
service.beta.kubernetes.io/aws-load-balancer-type: "nlb"
service.beta.kubernetes.io/aws-load-balancer-ssl-cert: "<certificate ARN>"
service.beta.kubernetes.io/aws-load-balancer-ssl-ports: "443"
service.beta.kubernetes.io/aws-load-balancer-backend-protocol: "http"
spec:
type: LoadBalancer
ports:
- port: 443
targetPort: 80
protocol: TCP
selector:
app: demo-app
---
kind: Deployment
apiVersion: apps/v1
metadata:
name: nginx
namespace: default
labels:
app: demo-app
spec:
replicas: 1
selector:
matchLabels:
app: demo-app
template:
metadata:
labels:
app: demo-app
spec:
containers:
- name: nginx
image: nginx
ports:
- containerPort: 443
protocol: TCP
- containerPort: 80
protocol: TCP
```
다음은 SSL/TLS 종료에 대한 추가 예입니다.
- [Securing EKS Ingress With Contour And Let’s Encrypt The GitOps Way](https://aws.amazon.com/blogs/containers/securing-eks-ingress-contour-lets-encrypt-gitops/)
- [How do I terminate HTTPS traffic on Amazon EKS workloads with ACM?](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-https-traffic-eks-acm/)
!!! caution
AWS LB 컨트롤러와 같은 일부 인그레스는 인그레스 사양의 일부가 아닌 어노테이션을 사용하여 SSL/TLS를 구현합니다.
### ACM Private CA 연동 (cert-manager)
인증서를 배포, 갱신 및 취소하는 인기 있는 쿠버네티스 애드온인 ACM Private Certificate Authority(CA) 및 [cert-manager](https://cert-manager.io/)를 사용하여 수신, 파드, 파드 간에 EKS 애플리케이션 워크로드를 보호하도록 TLS와 mTLS를 활성화할 수 있습니다. ACM Private CA는 자체 CA를 관리하는 데 드는 선결제 및 유지 관리 비용이 없는 가용성이 높고 안전한 관리형 CA입니다. 기본 쿠버네티스 인증 기관을 사용하는 경우 ACM Private CA를 통해 보안을 개선하고 규정 준수 요구 사항을 충족할 수 있습니다. ACM Private CA는 FIPS 140-2 레벨 3 하드웨어 보안 모듈에서 프라이빗 키를 보호합니다(매우 안전함). 이는 메모리에 인코딩된 키를 저장하는 기본 CA (보안 수준이 낮음)와 비교하면 매우 안전합니다. 또한 중앙 집중식 CA를 사용하면 쿠버네티스 환경 내부 및 외부에서 사설 인증서를 더 잘 제어하고 감사 기능을 개선할 수 있습니다.
#### 워크로드 간 상호 TLS를 위한 짧은 수명의 CA 모드
EKS 환경에서에서 mTLS용 ACM Private CA를 사용할 때는 _수명이 짧은 CA 모드_와 함께 수명이 짧은 인증서를 사용하는 것이 좋습니다. 범용 CA 모드에서 수명이 짧은 인증서를 발급할 수 있지만 새 인증서를 자주 발급해야 하는 사용 사례에서는 수명이 짧은 CA 모드를 사용하는 것이 더 비용 효율적입니다 (일반 모드보다 최대 75% 저렴). 이 외에도 사설 인증서의 유효 기간을 EKS 클러스터의 파드 수명에 맞춰 조정해야 합니다 [여기에서 ACM Private CA와 그 이점에 대해 자세히 알아보십시오](https://aws.amazon.com/certificate-manager/private-certificate-authority/).
#### ACM 구성 가이드
먼저 [ACM Private CA 문서](https://docs.aws.amazon.com/acm-pca/latest/userguide/create-CA.html)에 제공된 절차에 따라 Private CA를 생성하십시오. Private CA를 만든 후에는 [cert-manager 설치 가이드](https://cert-manager.io/docs/installation/) 절차에 따라 cert-manager를 설치하십시오. cert-manager를 설치한 후 [GitHub의 설정 가이드](https://github.com/cert-manager/aws-privateca-issuer#setup)에 따라 Private CA 쿠버네티스 인증서 관리자 플러그인을 설치합니다. 플러그인을 사용하면 인증서 관리자가 ACM Private CA에 사설 인증서를 요청할 수 있습니다.
이제 cert-manager와 플러그인이 설치된 사설 CA와 EKS 클러스터를 만들었으니, 권한을 설정하고 발급자를 생성할 차례입니다. ACM 사설 CA에 대한 액세스를 허용하도록 EKS 노드 역할의 IAM 권한을 업데이트하십시오. `<CA_ARN>`를 사설 CA의 값으로 바꾸십시오.
```json
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "awspcaissuer",
"Action": [
"acm-pca:DescribeCertificateAuthority",
"acm-pca:GetCertificate",
"acm-pca:IssueCertificate"
],
"Effect": "Allow",
"Resource": "<CA_ARN>"
}
]
}
```
[서비스 어카운트용 IAM 역할(IRSA)](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html)도 사용할 수 있습니다. 전체 예는 아래의 추가 리소스 섹션을 참조하십시오.
아래 예제의 내용을 포함한 `cluster-issuer.yaml` CRD 파일을 생성하고 `<CA_ARN>` 및 `<Region>` 영역을 Private CA 정보로 대체하여 Amazon EKS에서 발급자를 생성합니다.
```yaml
apiVersion: awspca.cert-manager.io/v1beta1
kind: AWSPCAClusterIssuer
metadata:
name: demo-test-root-ca
spec:
arn: <CA_ARN>
region: <Region>
```
Deploy the Issuer you created.
```bash
kubectl apply -f cluster-issuer.yaml
```
EKS 클러스터는 사설 CA에서 인증서를 요청하도록 구성되어 있습니다. 이제 cert-manager의 `Certificate` 리소스를 사용하여 `IssuerRef` 필드 값을 위에서 만든 사설 CA 발급자로 변경하여 인증서를 발급할 수 있습니다. 인증서 리소스를 지정하고 요청하는 방법에 대한 자세한 내용은 cert-manager의 [인증서 리소스 가이드](https://cert-manager.io/docs/usage/certificate/)를 참조하십시오. [다음 예제를 참조하세요.](https://github.com/cert-manager/aws-privateca-issuer/tree/main/config/samples/).
### ACM Private CA 연동 (Istio 및 cert-manager)
EKS 클러스터에서 Istio를 실행하는 경우 Istio 컨트롤 플레인 (특히 'istiod') 이 루트 인증 기관 (CA) 으로 작동하지 않도록 설정하고 ACM Private CA를 워크로드 간 MTL의 루트 CA로 구성할 수 있습니다. 이 방법을 사용하려는 경우 ACM Private CA에서 _단기 CA 모드_를 사용하는 것이 좋습니다. 자세한 내용은 [이전 섹션](#워크로드-간-상호-tls를-위한-짧은-수명의-ca-모드) 및 이 [블로그](https://aws.amazon.com/blogs/security/how-to-use-aws-private-certificate-authority-short-lived-certificate-mode)를 참조하십시오.
#### Istio에서 인증서 서명 작동 방식 (기본방식)
쿠버네티스의 워크로드는 서비스 어카운트를 사용하여 식별됩니다. 서비스 어카운트를 지정하지 않으면 쿠버네티스는 워크로드에 서비스 어카운트를 자동으로 할당합니다. 또한 서비스 어카운트는 관련 토큰을 자동으로 마운트합니다. 이 토큰은 서비스 어카운트에서 쿠버네티스 API에 대한 인증을 위한 워크로드에 사용됩니다. 서비스 어카운트는 쿠버네티스의 ID로 충분할 수 있지만 Istio에는 자체 ID 관리 시스템과 CA가 있습니다. Envoy 사이드카 프록시로 워크로드를 시작하는 경우 Istio에서 할당한 ID가 있어야 해당 워크로드가 신뢰할 수 있는 것으로 간주되고 메시의 다른 서비스와 통신할 수 있습니다.
Istio에서 이 ID를 가져오기 위해 'istio-agent'는 인증서 서명 요청(또는 CSR) 이라는 요청을 Istio 컨트롤 플레인에 보냅니다. 이 CSR에는 처리 전에 워크로드의 ID를 확인할 수 있도록 서비스 어카운트 토큰이 포함되어 있습니다. 이 확인 프로세스는 등록 기관(또는 RA)과 CA 역할을 모두 하는 'istiod'에 의해 처리됩니다. RA는 검증된 CSR만 CA에 전달되도록 하는 게이트키퍼 역할을 합니다. CSR이 확인되면 CA로 전달되며 CA는 서비스 어카운트과 함께 [SPIFFE](https://spiffe.io/) ID가 포함된 인증서를 발급합니다. 이 인증서를 SPIFE 검증 가능한 ID 문서(또는 SVID) 라고 합니다. SVID는 요청 서비스에 할당되어 식별을 목적으로 하고 통신 서비스 간에 전송되는 트래픽을 암호화합니다.
![Istio 인증서 서명 요청의 기본 흐름](./images/default-istio-csr-flow.png)
#### ACM Private CA를 사용하여 Istio에서 인증서 서명이 작동하는 방식
Istio 인증서 서명 요청 에이전트 ([istio-csr](https://cert-manager.io/docs/projects/istio-csr/))라는 인증서 관리 애드온을 사용하여 Istio를 ACM 사설 CA와 통합할 수 있습니다. 이 에이전트를 사용하면 인증서 관리자 발급자(이 경우 ACM Private CA)를 통해 Istio 워크로드와 컨트롤 플레인 구성 요소를 보호할 수 있습니다. _istio-csr_ 에이전트는 수신 CSR을 검증하는 기본 구성에서 _istiod_가 제공하는 것과 동일한 서비스를 제공합니다. 단, 확인 후에는 요청을 인증서 관리자가 지원하는 리소스(예: 외부 CA 발급자와의 통합)로 변환합니다.
워크로드에서 CSR이 수신될 때마다 해당 CSR은 _istio-csr_로 전달되며, 이 CSR은 ACM 사설 CA로부터 인증서를 요청합니다. _istio-csr_와 ACM Private CA 간의 이런 통신은 [AWS Private CA 발급자 플러그인](https://github.com/cert-manager/aws-privateca-issuer)을 통해 활성화됩니다. 인증서 관리자는 이 플러그인을 사용하여 ACM 사설 CA에 TLS 인증서를 요청합니다. 발급자 플러그인은 ACM 사설 CA 서비스와 통신하여 워크로드에 대한 서명된 인증서를 요청합니다. 인증서가 서명되면 이 인증서는 _istio-csr_로 반환되며, 그러면 서명된 요청을 읽고 CSR을 시작한 워크로드에 해당 요청을 반환합니다.
![istio-csr를 사용한 Istio 인증서 서명 요청 흐름](./images/istio-csr-with-acm-private-ca.png)
#### 사설 CA가 포함된 Istio 구성 가이드
1. 먼저 [이 섹션의 설정 지침](#acm-private-ca-연동-istio-및-cert-manager) 에 따라 다음을 완료하십시오.:
2. 사설 CA 생성
3. cert-manager 설치
4. 발급자 플러그인 설치
5. 권한을 설정하고 발급자를 생성합니다. 발급자는 CA를 나타내며 'istiod' 및 메시 워크로드 인증서에 서명하는 데 사용됩니다. ACM 사설 CA와 통신합니다.
6. 'Istio-system' 네임스페이스를 생성합니다. 여기에 'istiod 인증서'와 기타 Istio 리소스가 배포됩니다.
7. AWS 사설 CA 발급자 플러그인으로 구성된 Istio CSR을 설치합니다.워크로드에 대한 인증서 서명 요청을 보존하여 승인 및 서명 여부를 확인할 수 있습니다 (`PerveCertificateRequests=true`).
```bash
helm install -n cert-manager cert-manager-istio-csr jetstack/cert-manager-istio-csr \
--set "app.certmanager.issuer.group=awspca.cert-manager.io" \
--set "app.certmanager.issuer.kind=AWSPCAClusterIssuer" \
--set "app.certmanager.issuer.name=<the-name-of-the-issuer-you-created>" \
--set "app.certmanager.preserveCertificateRequests=true" \
--set "app.server.maxCertificateDuration=48h" \
--set "app.tls.certificateDuration=24h" \
--set "app.tls.istiodCertificateDuration=24h" \
--set "app.tls.rootCAFile=/var/run/secrets/istio-csr/ca.pem" \
--set "volumeMounts[0].name=root-ca" \
--set "volumeMounts[0].mountPath=/var/run/secrets/istio-csr" \
--set "volumes[0].name=root-ca" \
--set "volumes[0].secret.secretName=istio-root-ca"
```
8. 'istiod'를 'cert-manager istio-csr'로 바꾼 사용자 지정 설정으로 메시의 인증서 공급자로 Istio를 설치하세요. 이 프로세스는 [Istio 오퍼레이터](https://tetrate.io/blog/what-is-istio-operator/)를 사용하여 수행할 수 있습니다.
```yaml
apiVersion: install.istio.io/v1alpha1
kind: IstioOperator
metadata:
name: istio
namespace: istio-system
spec:
profile: "demo"
hub: gcr.io/istio-release
values:
global:
# Change certificate provider to cert-manager istio agent for istio agent
caAddress: cert-manager-istio-csr.cert-manager.svc:443
components:
pilot:
k8s:
env:
# Disable istiod CA Sever functionality
- name: ENABLE_CA_SERVER
value: "false"
overlays:
- apiVersion: apps/v1
kind: Deployment
name: istiod
patches:
# Mount istiod serving and webhook certificate from Secret mount
- path: spec.template.spec.containers.[name:discovery].args[7]
value: "--tlsCertFile=/etc/cert-manager/tls/tls.crt"
- path: spec.template.spec.containers.[name:discovery].args[8]
value: "--tlsKeyFile=/etc/cert-manager/tls/tls.key"
- path: spec.template.spec.containers.[name:discovery].args[9]
value: "--caCertFile=/etc/cert-manager/ca/root-cert.pem"
- path: spec.template.spec.containers.[name:discovery].volumeMounts[6]
value:
name: cert-manager
mountPath: "/etc/cert-manager/tls"
readOnly: true
- path: spec.template.spec.containers.[name:discovery].volumeMounts[7]
value:
name: ca-root-cert
mountPath: "/etc/cert-manager/ca"
readOnly: true
- path: spec.template.spec.volumes[6]
value:
name: cert-manager
secret:
secretName: istiod-tls
- path: spec.template.spec.volumes[7]
value:
name: ca-root-cert
configMap:
defaultMode: 420
name: istio-ca-root-cert
```
9. 생성한 위의 사용자 지정 리소스(CRD)를 배포합니다.
```bash
istioctl operator init
kubectl apply -f istio-custom-config.yaml
```
10. 이제 EKS 클러스터의 메시에 워크로드를 배포하고 [mTLS를 적용](https://istio.io/latest/docs/reference/config/security/peer_authentication/)할 수 있습니다.
![Istio 인증서 서명 요청](./images/istio-csr-requests.png)
## 도구 및 리소스
- [Amazon EKS 보안 워크샵 - 네트워크 보안](https://catalog.workshops.aws/eks-security-immersionday/en-US/6-network-security)
- [cert-manager 및 ACM Private CA 플러그인을 구현하여 EKS에서 TLS를 활성화하는 방법](https://aws.amazon.com/blogs/security/tls-enabled-kubernetes-clusters-with-acm-private-ca-and-amazon-eks-2/).
- [새로운 AWS Load Balancer Controller 및 ACM Private CA를 사용하여 Amazon EKS에서 엔드-투-엔드 TLS 암호화 설정](https://aws.amazon.com/blogs/containers/setting-up-end-to-end-tls-encryption-on-amazon-eks-with-the-new-aws-load-balancer-controller/).
- [Private CA 쿠버네티스 cert-manager 플러그인 (Github)](https://github.com/cert-manager/aws-privateca-issuer).
- [Private CA 쿠버네티스 cert-manager 플러그인 사용자 가이드](https://docs.aws.amazon.com/acm-pca/latest/userguide/PcaKubernetes.html).
- [AWS Private Certificate Authority 단기 인증서 모드 사용 방법](https://aws.amazon.com/blogs/security/how-to-use-aws-private-certificate-authority-short-lived-certificate-mode)
- [egress-operator](https://github.com/monzo/egress-operator) 프로토콜 검사 없이 클러스터의 송신 트래픽을 제어하는 오퍼레이터 및 DNS 플러그인
- [NeuVector by SUSE](https://www.suse.com/neuvector/) 오픈 소스 제로 트러스트 컨테이너 보안 플랫폼은 정책 네트워크 규칙, 데이터 손실 방지 (DLP), 웹 애플리케이션 방화벽 (WAF) 및 네트워크 위협 시그니처를 제공합니다. | eks | search exclude true EKS CNI Nitro cert manager ACM Private CA East West OSI 3 4 IP ingress egress Amazon VPC CNI API API https kubernetes io docs concepts services networking network policies PolicyType Ingress attention EKS VPC CNI VPC CNI vpc cni ENABLE NETWORK POLICY true Amazon EKS https docs aws amazon com eks latest userguide managing vpc cni html deny RBAC yaml apiVersion networking k8s io v1 kind NetworkPolicy metadata name default deny namespace default spec podSelector policyTypes Ingress Egress default deny images default deny jpg tip Tufin https orca tufin io netpol DNS CoreDNS yaml apiVersion networking k8s io v1 kind NetworkPolicy metadata name allow dns access namespace default spec podSelector matchLabels policyTypes Egress egress to namespaceSelector matchLabels kubernetes io metadata name kube system podSelector matchLabels k8s app kube dns ports protocol UDP port 53 allow dns access images allow dns access jpg 80 client one app one yaml apiVersion networking k8s io v1 kind NetworkPolicy metadata name allow ingress app one namespace default spec podSelector matchLabels k8s app app one policyTypes Ingress ingress from podSelector matchLabels k8s app client one ports protocol TCP port 80 allow ingress app one images allow ingress app one png https networkpolicy io EKS VPC CNI SDK Open Policy Agent OPA OPA k8s app sample app k8s javascript package kubernetes admission import data kubernetes networkpolicies deny msg input request kind kind Pod pod label value v k8s app v input request object metadata labels contains label pod label value sample app np label value v k8s app v networkpolicies spec podSelector matchLabels not contains label np label value sample app msg sprintf The Pod v could not be created because it is missing an associated Network Policy input request object metadata name contains label arr val arr val vpc network policy controller node agent EKS CloudWatch CloudWatch Log Insights https docs aws amazon com AmazonCloudWatch latest logs AnalyzingLogData html Amazon VPC CNI EKS Amazon Cloudwatch https aws amazon com cloudwatch CloudWatch Container Insights https docs aws amazon com AmazonCloudWatch latest monitoring ContainerInsights html Amazon VPC CNI eBPF SDK SDK aws node opt cni bin SDK SDK eBPF shell sudo opt cni bin aws eks na cli ebpf progs AWS VPC Flow Logs https docs aws amazon com vpc latest userguide flow logs html VPC IP VPC IP Calico Enterprise EKS AWS VPC https docs aws amazon com vpc latest userguide VPC SecurityGroups html SG VPC IP EKS 1 14 eks 3 EKS SG 1 14 EKS eks 3 EKS AWS https docs aws amazon com eks latest userguide sec group reqs html 443 kubelets API 10250 10250 kubelet 10250 443 RDS https docs aws amazon com eks latest userguide security groups for pods html warning SecurityGroupPolicy PodSelector ServiceAccountSelector SecurityGroupPolicy https docs aws amazon com eks latest userguide security groups for pods html security groups pods considerations important 53 53 important https docs aws amazon com vpc latest userguide amazon vpc limits html vpc limits security groups important kubelet important EC2 ENI ENI https docs aws amazon com AmazonECS latest developerguide container instance eni html VPC ENI ENI ENI AWS https docs aws amazon com eks latest userguide security groups for pods html supported instance types AWS Cilium DNS Calico Enterprise AWS Istio IP Istio https istio io blog 2019 egress traffic control in istio part 1 3 IP OSI 3 4 AWS SGP AWS AWS EC2 EC2 EKS SGP AWS EKS AWS RDS SGP AWS POD SECURITY GROUP ENFORCING MODE strict SGP SGP SGP AWS caution strict standard EKS standard SGP EKS OSI 7 3 4 AWS AppMesh Istio Linkerd mTLS tip DNS 7 Calico https docs projectcalico org introduction EKS Tigera https tigera io Calico Kubernetes Istio 7 HTTP Calico RBAC IT Cilium https cilium readthedocs io en stable intro HTTP 7 Cilium DNS VPC Calico Enterprise AWS DNS Github https github com ahmetb kubernetes network policy recipes Calico Calico https docs projectcalico org security calico network policy Amazon VPC CNI 3P VPC CNI VPC CNI 3P CRD Calico Cilium CRD K8s Network Policy Migrator https github com awslabs k8s network policy migrator VPC CNI important API AWS VPC CNI Github https github com awslabs k8s network policy migrator issues Kubernetes Tigera https youtu be lEY2WnRHYpg Calico Enterprise https www tigera io tigera products calico enterprise Cilium https cilium readthedocs io en stable intro NetworkPolicy Editor https cilium io blog 2021 02 10 network policy editor Cilium Inspektor Gadget advise network policy gadget https www inspektor gadget io docs latest gadgets advise network policy PCI HIPAA TLS TLS SSL TLS Nitro Nitro C5n G4 I3en M5dn M5n P3dn R5dn R5n Transit Gateway https docs aws amazon com AWSEC2 latest UserGuide data protection html encryption transit CNI WeAvenet https www weave works oss net NaCL IPsec ESP AppMesh Linkerd v2 Istio AppMesh X 509 Envoy SDS mTLS https docs aws amazon com app mesh latest userguide mutual tls html Linkerd Istio mTLS aws app mesh examples https github com aws aws app mesh examples GitHub X 509 SPIRE Envoy SDS MTL X 509 mTLS https github com aws aws app mesh examples tree main walkthroughs howto k8s mtls file based SPIRE SDS TLS https github com aws aws app mesh examples tree main walkthroughs howto k8s mtls sds based App Mesh AWS Certificate Manager https docs aws amazon com acm latest userguide acm overview html ACM TLS https docs aws amazon com app mesh latest userguide virtual node tls html aws app mesh examples https github com aws aws app mesh examples GitHub ACM Envoy TLS TLS TLS https github com aws aws app mesh examples tree master walkthroughs howto tls file provided AWS Certificate Manager TLS https github com aws aws app mesh examples tree master walkthroughs tls with acm HTTP S CLB Classic Load Balancer NLB Network Load Balancer 4 SSL Pod SSL TLS CPU SSL AWS Elastic AWS Application Load Balancer https docs aws amazon com elasticloadbalancing latest application introduction html ALB Network Load Balancer https docs aws amazon com elasticloadbalancing latest network introduction html NLB SSL TLS ALB alb ingress kubernetes io certificate arn ALB AWS Certificate Manager ACM https docs aws amazon com acm latest userguide acm overview html EKS v1 15 NLB service beta kubernetes io aws load balancer ssl cert yaml apiVersion v1 kind Service metadata name demo app namespace default labels app demo app annotations service beta kubernetes io aws load balancer type nlb service beta kubernetes io aws load balancer ssl cert certificate ARN service beta kubernetes io aws load balancer ssl ports 443 service beta kubernetes io aws load balancer backend protocol http spec type LoadBalancer ports port 443 targetPort 80 protocol TCP selector app demo app kind Deployment apiVersion apps v1 metadata name nginx namespace default labels app demo app spec replicas 1 selector matchLabels app demo app template metadata labels app demo app spec containers name nginx image nginx ports containerPort 443 protocol TCP containerPort 80 protocol TCP SSL TLS Securing EKS Ingress With Contour And Let s Encrypt The GitOps Way https aws amazon com blogs containers securing eks ingress contour lets encrypt gitops How do I terminate HTTPS traffic on Amazon EKS workloads with ACM https aws amazon com premiumsupport knowledge center terminate https traffic eks acm caution AWS LB SSL TLS ACM Private CA cert manager ACM Private Certificate Authority CA cert manager https cert manager io EKS TLS mTLS ACM Private CA CA CA ACM Private CA ACM Private CA FIPS 140 2 3 CA CA TLS CA EKS mTLS ACM Private CA CA CA CA 75 EKS ACM Private CA https aws amazon com certificate manager private certificate authority ACM ACM Private CA https docs aws amazon com acm pca latest userguide create CA html Private CA Private CA cert manager https cert manager io docs installation cert manager cert manager GitHub https github com cert manager aws privateca issuer setup Private CA ACM Private CA cert manager CA EKS ACM CA EKS IAM CA ARN CA json Version 2012 10 17 Statement Sid awspcaissuer Action acm pca DescribeCertificateAuthority acm pca GetCertificate acm pca IssueCertificate Effect Allow Resource CA ARN IAM IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html cluster issuer yaml CRD CA ARN Region Private CA Amazon EKS yaml apiVersion awspca cert manager io v1beta1 kind AWSPCAClusterIssuer metadata name demo test root ca spec arn CA ARN region Region Deploy the Issuer you created bash kubectl apply f cluster issuer yaml EKS CA cert manager Certificate IssuerRef CA cert manager https cert manager io docs usage certificate https github com cert manager aws privateca issuer tree main config samples ACM Private CA Istio cert manager EKS Istio Istio istiod CA ACM Private CA MTL CA ACM Private CA CA tls ca https aws amazon com blogs security how to use aws private certificate authority short lived certificate mode Istio API ID Istio ID CA Envoy Istio ID Istio ID istio agent CSR Istio CSR ID RA CA istiod RA CSR CA CSR CA CA SPIFFE https spiffe io ID SPIFE ID SVID SVID Istio images default istio csr flow png ACM Private CA Istio Istio istio csr https cert manager io docs projects istio csr Istio ACM CA ACM Private CA Istio istio csr CSR istiod CA CSR CSR istio csr CSR ACM CA istio csr ACM Private CA AWS Private CA https github com cert manager aws privateca issuer ACM CA TLS ACM CA istio csr CSR istio csr Istio images istio csr with acm private ca png CA Istio 1 acm private ca istio cert manager 2 CA 3 cert manager 4 5 CA istiod ACM CA 6 Istio system istiod Istio 7 AWS CA Istio CSR PerveCertificateRequests true bash helm install n cert manager cert manager istio csr jetstack cert manager istio csr set app certmanager issuer group awspca cert manager io set app certmanager issuer kind AWSPCAClusterIssuer set app certmanager issuer name the name of the issuer you created set app certmanager preserveCertificateRequests true set app server maxCertificateDuration 48h set app tls certificateDuration 24h set app tls istiodCertificateDuration 24h set app tls rootCAFile var run secrets istio csr ca pem set volumeMounts 0 name root ca set volumeMounts 0 mountPath var run secrets istio csr set volumes 0 name root ca set volumes 0 secret secretName istio root ca 8 istiod cert manager istio csr Istio Istio https tetrate io blog what is istio operator yaml apiVersion install istio io v1alpha1 kind IstioOperator metadata name istio namespace istio system spec profile demo hub gcr io istio release values global Change certificate provider to cert manager istio agent for istio agent caAddress cert manager istio csr cert manager svc 443 components pilot k8s env Disable istiod CA Sever functionality name ENABLE CA SERVER value false overlays apiVersion apps v1 kind Deployment name istiod patches Mount istiod serving and webhook certificate from Secret mount path spec template spec containers name discovery args 7 value tlsCertFile etc cert manager tls tls crt path spec template spec containers name discovery args 8 value tlsKeyFile etc cert manager tls tls key path spec template spec containers name discovery args 9 value caCertFile etc cert manager ca root cert pem path spec template spec containers name discovery volumeMounts 6 value name cert manager mountPath etc cert manager tls readOnly true path spec template spec containers name discovery volumeMounts 7 value name ca root cert mountPath etc cert manager ca readOnly true path spec template spec volumes 6 value name cert manager secret secretName istiod tls path spec template spec volumes 7 value name ca root cert configMap defaultMode 420 name istio ca root cert 9 CRD bash istioctl operator init kubectl apply f istio custom config yaml 10 EKS mTLS https istio io latest docs reference config security peer authentication Istio images istio csr requests png Amazon EKS https catalog workshops aws eks security immersionday en US 6 network security cert manager ACM Private CA EKS TLS https aws amazon com blogs security tls enabled kubernetes clusters with acm private ca and amazon eks 2 AWS Load Balancer Controller ACM Private CA Amazon EKS TLS https aws amazon com blogs containers setting up end to end tls encryption on amazon eks with the new aws load balancer controller Private CA cert manager Github https github com cert manager aws privateca issuer Private CA cert manager https docs aws amazon com acm pca latest userguide PcaKubernetes html AWS Private Certificate Authority https aws amazon com blogs security how to use aws private certificate authority short lived certificate mode egress operator https github com monzo egress operator DNS NeuVector by SUSE https www suse com neuvector DLP WAF |
eks exclude true search AWS AWS AWS AWS EC2 AWS | ---
search:
exclude: true
---
# 인증 및 접근 관리
[AWS IAM(Identity and Access Management)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html)은 인증 및 권한 부여라는 두 가지 필수 기능을 수행하는 AWS 서비스입니다. 인증에는 자격 증명 확인이 포함되는 반면 권한 부여는 AWS 리소스에서 수행할 수 있는 작업을 관리합니다. AWS 내에서 리소스는 다른 AWS 서비스(예: EC2) 또는 [IAM 사용자](https://docs.aws.amazon.com/IAM/latest/UserGuide/id.html#id_iam-users) 또는 [IAM 역할](https://docs.aws.amazon.com/IAM/latest/UserGuide/id.html#id_iam-roles)과 같은 AWS [보안 주체](https://docs.aws.amazon.com/IAM/latest/UserGuide/intro-structure.html#intro-structure-principal)일 수 있습니다. 리소스가 수행할 수 있는 작업을 관리하는 규칙은 [IAM 정책]( https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies.html)으로 표현됩니다.
## EKS 클러스터에 대한 접근 제어
쿠버네티스 프로젝트는 베어러(Bearer) 토큰, X.509 인증서, OIDC 등 kube-apiserver 서비스에 대한 요청을 인증하기 위한 다양한 방식을 지원합니다. EKS는 현재 [웹훅(Webhook) 토큰 인증](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#webhook-token-authentication), [서비스 어카운트 토큰]( https://kubernetes.io/docs/reference/access-authn-authz/authentication/#service-account-tokens) 및 2021년 2월 21일부터 OIDC 인증을 기본적으로 지원합니다.
웹훅 인증 방식은 베어러 토큰을 확인하는 웹훅을 호출합니다. EKS에서 이런 베어러 토큰은 `kubectl` 명령 실행 시 AWS CLI 또는 [aws-iam-authenticator](https://github.com/kubernetes-sigs/aws-iam-authenticator) 클라이언트에 의해 생성됩니다. 명령을 실행하면 토큰은 kube-apiserver로 전달되고 다시 웹훅으로 포워딩됩니다. 요청이 올바른 형식이면 웹훅은 토큰 본문에 포함된 미리 서명된 URL을 호출합니다. 이 URL은 요청 서명의 유효성을 검사하고 사용자 정보(사용자 어카운트, ARN 및 사용자 ID 등)를 kube-apiserver에 반환합니다.
인증 토큰을 수동으로 생성하려면 터미널 창에 다음 명령을 입력합니다.
```bash
aws eks get-token --cluster-name <클러스터_이름>
```
프로그래밍 방식으로 토큰을 얻을 수도 있습니다. 다음은 Go 언어로 작성된 예입니다.
```golang
package main
import (
"fmt"
"log"
"sigs.k8s.io/aws-iam-authenticator/pkg/token"
)
func main() {
g, _ := token.NewGenerator(false, false)
tk, err := g.Get("<cluster_name>")
if err != nil {
log.Fatal(err)
}
fmt.Println(tk)
}
```
출력 응답은 다음과 형태를 가집니다.
```json
{
"kind": "ExecCredential",
"apiVersion": "client.authentication.k8s.io/v1alpha1",
"spec": {},
"status": {
"expirationTimestamp": "2020-02-19T16:08:27Z",
"token": "k8s-aws-v1.aHR0cHM6Ly9zdHMuYW1hem9uYXdzLmNvbS8_QWN0aW9uPUdldENhbGxlcklkZW50aXR5JlZlcnNpb249MjAxMS0wNi0xNSZYLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFKTkdSSUxLTlNSQzJXNVFBJTJGMjAyMDAyMTklMkZ1cy1lYXN0LTElMkZzdHMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDIwMDIxOVQxNTU0MjdaJlgtQW16LUV4cGlyZXM9NjAmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JTNCeC1rOHMtYXdzLWlkJlgtQW16LVNpZ25hdHVyZT0yMjBmOGYzNTg1ZTMyMGRkYjVlNjgzYTVjOWE0MDUzMDFhZDc2NTQ2ZjI0ZjI4MTExZmRhZDA5Y2Y2NDhhMzkz"
}
}
```
각 토큰은 `k8s-aws-v1.`으로 시작하고 base64로 인코딩된 문자열이 뒤따릅니다. 문자열은 디코딩하면 다음과 같은 형태를 가집니다.
```bash
https://sts.amazonaws.com/?Action=GetCallerIdentity&Version=2011-06-15&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=0KIAJPFRILKNSRC2W5QA%2F20200219%2F$REGION%2Fsts%2Faws4_request&X-Amz-Date=20200219T155427Z&X-Amz-Expires=60&X-Amz-SignedHeaders=host%3Bx-k8s-aws-id&X-Amz-Signature=BB0f8f3285e320ddb5e683a5c9a405301ad76546f24f28111fdad09cf648a393
```
토큰은 Amazon 자격 증명 크리덴셜 및 서명이 포함된 미리 서명된 URL로 구성됩니다. 자세한 내용은 [GetCallerIdentity API 문서](https://docs.aws.amazon.com/STS/latest/APIReference/API_GetCallerIdentity.html)를 참조합니다.
토큰은 15분의 TTL 수명이 있고, 수명 종류 후에는 새 토큰을 생성해야 합니다. 이는 `kubectl`과 같은 클라이언트를 사용할 때 자동으로 처리 되지만 쿠버네티스 대시보드를 사용하는 경우 토큰이 만료될 때마다 새 토큰을 생성하고 다시 인증해야 합니다.
사용자 ID가 AWS IAM 서비스에 의해 인증되면 kube-apiserver 는 'kube-system' 네임스페이스에서 'aws-auth' 컨피그맵을 읽어 사용자와 연결할 RBAC 그룹을 결정합니다. `aws-auth` 컨피그맵 은 IAM 보안 주체(예: IAM 사용자 및 역할)와 쿠버네티스 RBAC 그룹 간의 정적 매핑을 생성하는 데 사용됩니다. RBAC 그룹은 쿠버네티스 롤바인딩 또는 클러스터롤바인딩에서 참조할 수 있습니다. 쿠버네티스 리소스(객체) 모음에 대해 수행할 수 있는 일련의 작업(동사)을 정의한다는 점에서 IAM 역할과 유사합니다.
## 권장 사항
### 인증에 서비스 어카운트 토큰을 사용하지 마세요
서비스 어카운트 토큰은 수명이 긴 정적 사용자 인증 정보입니다. 손상, 분실 또는 도난된 경우 공격자는 서비스 어카운트이 삭제될 때까지 해당 토큰과 관련된 모든 작업을 수행할 수 있습니다. 경우에 따라 클러스터 외부에서 쿠버네티스 API를 사용해야 하는 애플리케이션(예: CI/CD 파이프라인 애플리케이션)에 대한 예외를 부여해야 할 수 있습니다. 이런 애플리케이션이 EC2 인스턴스와 같은 AWS 인프라에서 실행되는 경우 대신 인스턴스 프로파일을 사용하고 이를 'aws-auth' 컨피그맵의 쿠버네티스 RBAC 역할에 매핑하는 것이 좋습니다.
### AWS 리소스에 대한 최소 권한 액세스 사용
쿠버네티스 API에 액세스하기 위해 IAM 사용자에게 AWS 리소스에 대한 권한을 할당할 필요가 없습니다. IAM 사용자에게 EKS 클러스터에 대한 액세스 권한을 부여해야 하는 경우 특정 쿠버네티스 RBAC 그룹에 매핑되는 해당 사용자 의 'aws-auth' 컨피그맵에 항목을 생성합니다.
### 여러 사용자가 클러스터에 대해 동일한 액세스 권한이 필요한 경우 IAM 역할 사용
'aws-auth' 컨피그맵 에서 각 개별 IAM 사용자에 대한 항목을 생성하는 대신 해당 사용자가 IAM 역할을 수임하고 해당 역할을 쿠버네티스 RBAC 그룹에 매핑하도록 허용합니다. 특히 액세스가 필요한 사용자 수가 증가함에 따라 유지 관리가 더 쉬워집니다.
!!! attention
aws-auth 컨피그맵에 의해 매핑된 IAM 보안 주체로 EKS 클러스터에 액세스할 때 aws-auth 컨피그맵에 설명된 사용자 이름이 쿠버네티스 감사 로그의 사용자 필드에 기록됩니다. IAM 역할을 사용하는 경우 해당 역할을 맡는 실제 사용자는 기록되지 않으며 감사할 수 없습니다.
aws-auth 컨피그맵에서 mapRoles를 사용하여 K8s RBAC 권한을 IAM 역할에 할당할 때 사용자 이름에 을 포함해야 합니다. 이렇게 하면 감사 로그에 세션 이름이 기록되므로 CloudTrail 로그와 함께 이 역할을 맡은 실제 사용자를 추적할 수 있습니다.
```yaml
- rolearn: arn:aws:iam::XXXXXXXXXXXX:role/testRole
username: testRole:
groups:
- system:masters
```
쿠버네티스 1.20 또는 이후 버전에서는 ```User.Extra.sessionName.0```이 쿠버네티스 감사 로그에 추가되었으므로 이런 변경이 더 이상 필요하지 않습니다.
### 롤바인딩(RoleBinding) 및 클러스터롤바인딩(ClusterRoleBinding) 생성 시 최소 권한 접근 허용
AWS 리소스에 대한 액세스 권한 부여에 대한 이전 항목과 마찬가지로 롤바인딩 및 클러스터롤바인딩에는 특정 기능을 수행하는 데 필요한 권한 집합만 포함되어야 합니다. 절대적으로 필요한 경우가 아니면 롤(Role) 및 클러스터롤(ClusterRole)에서 `["*"]` 를 사용하지 마십시오. 할당할 권한이 확실하지 않은 경우 [audit2rbac](https://github.com/liggitt/audit2rbac)과 같은 도구를 사용하여 쿠버네티스 감사 로그에서 관찰된 API 호출을 기반으로 역할 및 바인딩을 자동으로 생성하는 것이 좋습니다.
### EKS 클러스터 엔드포인트를 프라이빗으로 설정
기본적으로 EKS 클러스터를 프로비저닝할 때 API 클러스터 엔드포인트는 퍼블릭으로 설정됩니다. 즉, 인터넷에서 액세스할 수 있습니다. 인터넷에서 액세스할 수 있음에도 불구하고 모든 API 요청이 IAM에 의해 인증되고 쿠버네티스 RBAC에 의해 승인되어야 하기 때문에 엔드포인트는 여전히 안전한 것으로 간주됩니다. 즉, 회사 보안 정책에 따라 인터넷에서 API에 대한 액세스를 제한하거나 클러스터 VPC 외부로 트래픽을 라우팅하지 못하도록 하는 경우 다음을 수행할 수 있습니다.
- EKS 클러스터 엔드포인트를 프라이빗으로 구성합니다. 이 주제에 대한 자세한 내용은 [클러스터 엔드포인트 액세스 수정](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html)을 참조하십시오.
- 클러스터 엔드포인트를 퍼블릭으로 두고 클러스터 엔드포인트와 통신할 수 있는 CIDR 블록을 지정합니다. 해당 블록은 클러스터 엔드포인트에 액세스할 수 있도록 허용된 퍼블릭 IP 주소 집합입니다.
- 퍼블릭 엔드포인트는 접근이 허용된 화이트리스트 기반의 일부 CIDR 블록에만 허용하고 프라이빗 엔드포인트를 활성화합니다. 이렇게 하면 컨트롤 플레인이 프로비저닝될 때 클러스터 VPC에 프로비저닝되는 크로스 어카운트 ENI를 통해 kubelet과 쿠버네티스 API 사이의 모든 네트워크 트래픽을 강제하는 동시에 특정 퍼블릭 IP 범위의 퍼블릭 액세스가 허용됩니다.
### 전용 IAM 역할로 클러스터 생성
Amazon EKS 클러스터를 생성하면 클러스터를 생성하는 연동 사용자와 같은 IAM 엔터티 사용자 또는 역할에 클러스터의 RBAC 구성에서 `system:masters` 권한이 자동으로 부여됩니다. 이 액세스는 제거할 수 없으며 `aws-auth` 컨피그맵을 통해 관리되지 않습니다. 따라서 전용 IAM 역할로 클러스터를 생성하고 이 역할을 맡을 수 있는 사람을 정기적으로 감사하는 것이 좋습니다. 이 역할은 클러스터에서 일상적인 작업을 수행하는 데 사용되어서는 안 되며, 대신 이런 목적을 위해 `aws-auth` 컨피그맵을 통해 추가 사용자에게 클러스터에 대한 액세스 권한을 부여해야 합니다. `aws-auth` 컨피그맵이 구성된 이후에는 역할을 삭제할 수 있으며 `aws-auth` 컨피그맵이 손상되고 그렇지 않으면 클러스터에 액세스할 수 없는 긴급/유리 파손 시나리오에서만 다시 생성 할 수 있습니다. 이는 일반적으로 직접 사용자 액세스가 구성되지 않은 운영 클러스터에서 특히 유용할 수 있습니다.
### 도구를 사용하여 aws-auth 컨피그맵 변경
잘못된 형식의 aws-auth 컨피그맵으로 인해 클러스터에 대한 접근 권한을 잃을 수 있습니다. 컨피그맵을 변경해야 하는 경우 도구를 사용하십시오.
#### eksctl
`eksctl` CLI에는 aws-auth 컨피그맵에 ID 매핑을 추가하기 위한 명령이 포함되어 있습니다.
CLI 도움말 보기:
```bash
eksctl create iamidentitymapping --help
```
IAM 역할을 클러스터 관리자로 지정:
```bash
eksctl create iamidentitymapping --cluster <clusterName> --region=<region> --arn arn:aws:iam::123456:role/testing --group system:masters --username admin
```
자세한 내용은 [`eksctl` 문서]( https://eksctl.io/usage/iam-identity-mappings/)를 참조하십시오.
**keikoproj의 [aws-auth](https://github.com/keikoproj/aws-auth)**
keikoproj의 `aws-auth` 에는 cli 및 go 라이브러리가 모두 포함되어 있습니다.
CLI 도움말 다운로드 및 보기:
```bash
go get github.com/keikoproj/aws-auth
aws-auth help
```
또는 kubectl용 [krew 플러그인 관리자](https://krew.sigs.k8s.io)로 `aws-auth` 를 설치 합니다.
```bash
kubectl krew install aws-auth
kubectl aws-auth
```
go 라이브러리를 비롯한 자세한 내용은 [GitHub 내 aws-auth 문서를 확인](https://github.com/keikoproj/aws-auth/blob/master/README.md)하십시오.
**[AWS IAM Authenticator CLI](https://github.com/kubernetes-sigs/aws-iam-authenticator/tree/master/cmd/aws-iam-authenticator)**
`aws-iam-authenticator` 프로젝트에는 컨피그맵을 업데이트하기 위한 CLI가 포함되어 있습니다.
GitHub에서 [릴리스 다운로드]( https://github.com/kubernetes-sigs/aws-iam-authenticator/releases)하세요.
IAM 역할에 클러스터 권한을 추가합니다:
```bash
./aws-iam-authenticator add role --rolearn arn:aws:iam::185309785115:role/lil-dev-role-cluster --username lil-dev-user --groups system:masters --kubeconfig ~/.kube/config
```
### 클러스터에 대한 접근을 정기적으로 감사합니다
클러스터에 접근이 필요한 사람은 시간이 지남에 따라 변경될 수 있습니다. 주기적으로 `aws-auth` 컨피그맵을 감사하여 접근 권한이 부여된 사람과 할당된 권한을 확인하십시오. 특정 서비스 어카운트, 사용자 또는 그룹에 바인딩된 역할을 검사하기 위해 [kubectl-who-can](https://github.com/aquasecurity/kubectl-who-can) 또는 [rbac-lookup](https://github.com/FairwindsOps/)과 같은 오픈 소스 도구를 사용할 수도 있습니다. 해당 주제에 대해서는 [감사](detective.md)섹션에서 더 자세히 살펴 보겠습니다. 추가 아이디어는 NCC Group의 이 [기사](https://www.nccgroup.trust/us/about-us/newsroom-and-events/blog/2019/august/tools-and-methods-for-auditing-kubernetes-rbac-policies/?mkt_tok=eyJpIjoiWWpGa056SXlNV1E0WWpRNSIsInQiOiJBT1hyUTRHYkg1TGxBV0hTZnRibDAyRUZ0VzBxbndnRzNGbTAxZzI0WmFHckJJbWlKdE5WWDdUQlBrYVZpMnNuTFJ1R3hacVYrRCsxYWQ2RTRcL2pMN1BtRVA1ZFZcL0NtaEtIUDdZV3pENzNLcE1zWGVwUndEXC9Pb2tmSERcL1pUaGUifQ%3D%3D)에서 찾을 수 있습니다.
### 인증 및 액세스 관리에 대한 대체 접근 방식
IAM은 EKS 클러스터에 액세스해야 하는 사용자를 인증하는 데 선호되는 방법이지만, 인증 프록시 또는 쿠버네티스 [impersonation](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#user-impersonation)등을 사용하는 GitHub와 같은 OIDC ID 공급자를 사용할 수 있습니다. 이런 두 가지 솔루션에 대한 게시물이 AWS 오픈 소스 블로그에 게시되었습니다.
- [Teleport와 함께 GitHub 자격 증명을 사용하여 EKS에 인증](https://aws.amazon.com/blogs/opensource/authenticating-eks-github-credentials-teleport/)
- [kube-oidc-proxy를 사용하여 여러 EKS 클러스터에서 일관된 OIDC 인증](https://aws.amazon.com/blogs/opensource/consistent-oidc-authentication-across-multiple-eks-clusters-using-kube-oidc-proxy/)
!!! attention
EKS는 기본적으로 프록시를 사용하지 않고 OIDC 인증을 지원합니다. 자세한 내용은 [Amazon EKS에 대한 OIDC 자격 증명 공급자 인증 소개](https://aws.amazon.com/blogs/containers/introducing-oidc-identity-provider-authentication-amazon-eks/)블로그를 참조하십시오. 다양한 인증 방법에 대한 커넥터를 제공하는 인기 있는 오픈 소스 OIDC 공급자인 Dex로 EKS를 구성하는 방법을 보여주는 예는 [Dex 및 dex-k8s-authenticator를 사용하여 Amazon EKS 인증](https://aws.amazon.com/blogs/containers/using-dex-dex-k8s-authenticator-to-authenticate-to-amazon-eks/ ) 블로그를 참조하세요. 블로그에 설명된 대로 OIDC 공급자가 인증한 사용자 이름/사용자 그룹은 쿠버네티스 감사 로그에 나타납니다.
또한 [AWS SSO](https://docs.aws.amazon.com/singlesignon/latest/userguide/what-is.html)를 사용하여 Azure AD와 같은 외부 자격 증명 공급자와 AWS를 페더레이션할 수 있습니다. 이를 사용하기로 결정한 경우 AWS CLI v2.0에는 SSO 세션을 현재 CLI 세션과 쉽게 연결하고 IAM 역할을 수임할 수 있는 명명된 프로파일을 생성하는 옵션이 포함되어 있습니다. 사용자의 쿠버네티스 RBAC 그룹을 결정하는 데 IAM 역할이 사용되므로 `kubectl` 을 실행하기 "전" 역할을 수임(Assume)하여야 합니다.
### 추가 리소스
[rbac.dev](https://github.com/mhausenblas/rbac.dev) 쿠버네티스 RBAC에 대한 블로그 및 도구를 포함한 추가 리소스 목록
## 파드 아이덴티티
쿠버네티스 클러스터 내에서 실행되는 특정 애플리케이션은 제대로 작동하기 위해 쿠버네티스 API를 호출할 수 있는 권한이 필요합니다. 예를 들어 [AWS 로드밸런서 컨트롤러](https://github.com/kubernetes-sigs/aws-load-balancer-controller)는 서비스의 엔드포인트를 나열할 수 있어야 합니다. 또한 컨트롤러는 ALB를 프로비저닝하고 구성하기 위해 AWS API를 호출할 수 있어야 합니다. 이 섹션에서는 파드에 권한을 할당하는 모범 사례를 살펴봅니다.
### 쿠버네티스 서비스 어카운트
서비스 어카운트는 파드에 쿠버네티스 RBAC 역할을 할당할 수 있는 특수한 유형의 개체입니다. 클러스터 내의 각 네임스페이스에 대해 기본 서비스 어카운트이 자동으로 생성됩니다. 특정 서비스 어카운트을 참조하지 않고 네임스페이스에 파드를 배포하면, 해당 네임스페이스의 기본 서비스 어카운트이 자동으로 파드에 할당되고 시크릿, 즉 해당 서비스 아카운트의 서비스 어카운트 (JWT) 토큰은 `/var/run/secrets/kubernetes.io/serviceaccount`에서 볼륨으로 파드에 마운트됩니다. 해당 디렉터리의 서비스 어카운트 토큰을 디코딩하면 다음과 같은 메타데이터가 나타납니다.
```json
{
"iss": "kubernetes/serviceaccount",
"kubernetes.io/serviceaccount/namespace": "default",
"kubernetes.io/serviceaccount/secret.name": "default-token-5pv4z",
"kubernetes.io/serviceaccount/service-account.name": "default",
"kubernetes.io/serviceaccount/service-account.uid": "3b36ddb5-438c-11ea-9438-063a49b60fba",
"sub": "system:serviceaccount:default:default"
}
```
기본 서비스 어카운트에는 쿠버네티스 API에 대한 다음 권한이 있습니다.
```yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
annotations:
rbac.authorization.kubernetes.io/autoupdate: "true"
creationTimestamp: "2020-01-30T18:13:25Z"
labels:
kubernetes.io/bootstrapping: rbac-defaults
name: system:discovery
resourceVersion: "43"
selfLink: /apis/rbac.authorization.k8s.io/v1/clusterroles/system%3Adiscovery
uid: 350d2ab8-438c-11ea-9438-063a49b60fba
rules:
- nonResourceURLs:
- /api
- /api/*
- /apis
- /apis/*
- /healthz
- /openapi
- /openapi/*
- /version
- /version/
verbs:
- get
```
이 역할은 인증되지 않은 사용자와 인증된 사용자가 API 정보를 읽을 수 있는 권한을 부여하며 공개적으로 액세스해도 안전한 것으로 간주됩니다.
파드 내에서 실행 중인 애플리케이션이 쿠버네티스 API를 호출할 때 해당 API를 호출할 수 있는 권한을 명시적으로 부여하는 서비스 어카운트를 파드에 할당해야 합니다. 사용자 접근에 대한 지침과 유사하게 서비스 어카운트에 바인딩된 Role 또는 ClusterRole은 애플리케이션이 작동하는 데 필요한 API 리소스 및 메서드로 제한되어야 합니다. 기본이 아닌 서비스 어카운트를 사용하려면 파드의 `spec.serviceAccountName` 필드를 사용하려는 서비스 어카운트의 이름으로 설정하기만 하면 됩니다. 서비스 어카운트 생성에 대한 추가 정보는 [해당 문서](https://kubernetes.io/docs/reference/access-authn-authz/rbac/#service-account-permissions)를 참조하십시오.
!!! note
쿠버네티스 1.24 이전에는 쿠버네티스가 각 서비스 어카운트에 대한 암호를 자동으로 생성했습니다. 이 시크릿은 파드 내 /var/run/secrets/kubernetes.io/serviceaccount 경로로 마운트되었으며 파드에서 쿠버네티스 API 서버를 인증하는 데 사용됩니다. 쿠버네티스 1.24에서는 파드가 실행될 때 서비스 어카운트 토큰이 동적으로 생성되며 기본적으로 1시간 동안만 유효합니다. 서비스 어카운트의 시크릿은 생성되지 않습니다. Jenkins와 같이 쿠버네티스 API에 인증해야 하는 클러스터 외부에서 실행되는 애플리케이션이 있는 경우, `metadata.annotations.kubernetes.io/service-account.name: <SERVICE_ACCOUNT_NAME>`와 같은 서비스 어카운트를 참조하는 어노테이션과 함께 `kubernetes.io/service-account-token` 유형의 시크릿을 생성해야 한다. 이 방법으로 생성된 시크릿은 만료되지 않습니다.
### 서비스 어카운트용 IAM 역할(IRSA)
IRSA는 쿠버네티스 서비스 어카운트에 IAM 역할을 할당할 수 있는 기능입니다. [Service Account Token Volume Projection](https://kubernetes.io/docs/tasks/configure-pod-container/configure-service-account/#service-account-token-volume-projection)이라는 쿠버네티스 기능을 활용하여 작동합니다. 파드가 IAM 역할을 참조하는 서비스 어카운트으로 구성된 경우 쿠버네티스 API 서버는 시작 시 클러스터에 대한 공개 OIDC 검색 엔드포인트를 호출합니다. 엔드포인트는 Kubernetes에서 발행한 OIDC 토큰에 암호로 서명하고, 생성된 토큰은 볼륨으로 마운트됩니다. 이 서명된 토큰을 통해 파드는 IAM 역할과 연결된 AWS API를 호출할 수 있습니다. AWS API가 호출되면 AWS SDK는 `sts:AssumeRoleWithWebIdentity`를 호출합니다. 토큰의 서명을 확인한 후 IAM은 쿠버네티스에서 발행한 토큰을 임시 AWS 역할 자격 증명으로 교환합니다.
IRSA에 대한 (JWT)토큰을 디코딩하면 아래에 표시된 예와 유사한 출력이 생성됩니다.
```json
{
"aud": [
"sts.amazonaws.com"
],
"exp": 1582306514,
"iat": 1582220114,
"iss": "https://oidc.eks.us-west-2.amazonaws.com/id/D43CF17C27A865933144EA99A26FB128",
"kubernetes.io": {
"namespace": "default",
"pod": {
"name": "alpine-57b5664646-rf966",
"uid": "5a20f883-5407-11ea-a85c-0e62b7a4a436"
},
"serviceaccount": {
"name": "s3-read-only",
"uid": "a720ba5c-5406-11ea-9438-063a49b60fba"
}
},
"nbf": 1582220114,
"sub": "system:serviceaccount:default:s3-read-only"
}
```
이 특정 토큰은 파드에 S3 보기 전용 권한을 부여합니다. 애플리케이션이 S3에서 읽기를 시도하면 토큰이 다음과 유사한 임시 IAM 자격 증명 세트로 교환됩니다.
```json
{
"AssumedRoleUser": {
"AssumedRoleId": "AROA36C6WWEJULFUYMPB6:abc",
"Arn": "arn:aws:sts::123456789012:assumed-role/eksctl-winterfell-addon-iamserviceaccount-de-Role1-1D61LT75JH3MB/abc"
},
"Audience": "sts.amazonaws.com",
"Provider": "arn:aws:iam::123456789012:oidc-provider/oidc.eks.us-west-2.amazonaws.com/id/D43CF17C27A865933144EA99A26FB128",
"SubjectFromWebIdentityToken": "system:serviceaccount:default:s3-read-only",
"Credentials": {
"SecretAccessKey": "ORJ+8Adk+wW+nU8FETq7+mOqeA8Z6jlPihnV8hX1",
"SessionToken": "FwoGZXIvYXdzEGMaDMLxAZkuLpmSwYXShiL9A1S0X87VBC1mHCrRe/pB2oes+l1eXxUYnPJyC9ayOoXMvqXQsomq0xs6OqZ3vaa5Iw1HIyA4Cv1suLaOCoU3hNvOIJ6C94H1vU0siQYk7DIq9Av5RZe+uE2FnOctNBvYLd3i0IZo1ajjc00yRK3v24VRq9nQpoPLuqyH2jzlhCEjXuPScPbi5KEVs9fNcOTtgzbVf7IG2gNiwNs5aCpN4Bv/Zv2A6zp5xGz9cWj2f0aD9v66vX4bexOs5t/YYhwuwAvkkJPSIGvxja0xRThnceHyFHKtj0H+bi/PWAtlI8YJcDX69cM30JAHDdQH+ltm/4scFptW1hlvMaP+WReCAaCrsHrAT+yka7ttw5YlUyvZ8EPog+j6fwHlxmrXM9h1BqdikomyJU00gm1++FJelfP+1zAwcyrxCnbRl3ARFrAt8hIlrT6Vyu8WvWtLxcI8KcLcJQb/LgkW+sCTGlYcY8z3zkigJMbYn07ewTL5Ss7LazTJJa758I7PZan/v3xQHd5DEc5WBneiV3iOznDFgup0VAMkIviVjVCkszaPSVEdK2NU7jtrh6Jfm7bU/3P6ZG+CkyDLIa8MBn9KPXeJd/y+jTk5Ii+fIwO/+mDpGNUribg6TPxhzZ8b/XdZO1kS1gVgqjXyVC+M+BRBh6C4H21w/eMzjCtDIpoxt5rGKL6Nu/IFMipoC4fgx6LIIHwtGYMG7SWQi7OsMAkiwZRg0n68/RqWgLzBt/4pfjSRYuk=",
"Expiration": "2020-02-20T18:49:50Z",
"AccessKeyId": "0SIA12CFWWEJUMHACL7Z"
}
}
```
EKS 컨트롤 플레인의 일부로 실행되는 Mutating 웹훅은 AWS 역할 ARN과 웹 자격 증명 토큰 파일의 경로를 환경 변수로 파드에 주입합니다. 이런 값은 수동으로 제공할 수도 있습니다.
```bash
AWS_ROLE_ARN=arn:aws:iam::AWS_ACCOUNT_ID:role/IAM_ROLE_NAME
AWS_WEB_IDENTITY_TOKEN_FILE=/var/run/secrets/eks.amazonaws.com/serviceaccount/token
```
kubelet은 총 TTL의 80%보다 오래되거나 24시간이 지나면 프로젝션된 토큰을 자동으로 교체합니다. AWS SDK는 토큰이 회전할 때 토큰을 다시 로드하는 역할을 합니다. IRSA에 대한 자세한 내용은 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts-technical-overview.html)를 참조합니다.
## 포드 ID 권장 사항
### IRSA를 사용하도록 aws-node 데몬셋 업데이트
현재 aws-node 데몬셋은 EC2 인스턴스에 할당된 역할을 사용하여 파드에 IP를 할당하도록 구성되어 있습니다. 이 역할에는 AmazonEKS_CNI_Policy 및 EC2ContainerRegistryReadOnly와 같이 노드에서 실행 중인 **모든** 파드가 ENI를 연결/분리하거나, IP 주소를 할당/할당 해제하거나, ECR에서 이미지를 가져오도록 효과적으로 허용하는 몇 가지 AWS 관리형 정책이 포함됩니다. 이는 클러스터에 위험을 초래하므로 IRSA를 사용하도록 aws-node 데몬셋을 업데이트하는 것이 좋습니다. 이 작업을 수행하기 위한 스크립트는 이 가이드의 [리파지토리](https://github.com/aws/aws-eks-best-practices/tree/master/projects/enable-irsa/src)에서 찾을 수 있습니다.
### 워커 노드에 할당된 인스턴스 프로파일에 대한 접근 제한
IRSA를 사용하면 IRSA 토큰을 사용하도록 파드의 자격 증명 체인을 업데이트하지만 파드는 _워커 노드에 할당된 인스턴스 프로파일의 권한을 계속 상속할 수 있습니다_. IRSA 사용 시 허용되지 않은 권한의 범위를 최소화하기 위해 [인스턴스 메타데이터](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) 액세스를 차단하는 것이 **강력하게** 권장됩니다.
!!! caution
인스턴스 메타데이터에 대한 액세스를 차단하면 IRSA를 사용하지 않는 파드가 워커 노드에 할당된 역할을 상속받지 못합니다.
아래 예와 같이 인스턴스가 IMDSv2만 사용하도록 하고 홉 제한을 1로 업데이트하여 인스턴스 메타데이터에 대한 액세스를 차단할 수 있습니다. 노드 그룹의 시작 템플릿에 이런 설정을 포함할 수도 있습니다. 인스턴스 메타데이터를 **비활성화 하지마세요**. 이렇게 하면 노드 종료 핸들러와 같은 구성 요소와 인스턴스 메타데이터에 의존하는 기타 요소가 제대로 작동하지 않습니다.
```bash
aws ec2 modify-instance-metadata-options --instance-id <value> --http-tokens required --http-put-response-hop-limit 1
```
Terraform을 사용하여 관리형 노드 그룹과 함께 사용할 시작 템플릿을 만드는 경우 메타데이터 블록을 추가하여 다음 코드 스니펫에 표시된 대로 홉 수를 구성하십시오.
```tf hl_lines="7"
resource "aws_launch_template" "foo" {
name = "foo"
...
metadata_options {
http_endpoint = "enabled"
http_tokens = "required"
http_put_response_hop_limit = 1
instance_metadata_tags = "enabled"
}
...
```
노드에서 iptables를 조작하여 EC2 메타데이터에 대한 파드의 액세스를 차단할 수도 있습니다. 이 방법에 대한 자세한 내용은 [인스턴스 메타데이터 서비스에 대한 액세스 제한](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instancedata-data-retrieval.html#instance-metadata-limiting-access) 문서를 참조하세요.
IRSA를 지원하지 않는 이전 버전의 AWS SDK를 사용하는 애플리케이션이 있는 경우 SDK 버전을 업데이트해야 합니다.
### IRSA에 대한 IAM 역할 신뢰 정책의 범위를 서비스 어카운트 이름으로 지정합니다
신뢰 정책은 네임스페이스 또는 네임스페이스 내의 특정 서비스 어카운트로 범위를 지정할 수 있습니다. IRSA를 사용하는 경우 서비스 어카운트 이름을 포함하여 역할 신뢰 정책을 가능한 한 명시적으로 만드는 것이 가장 좋습니다. 이렇게 하면 동일한 네임스페이스 내의 다른 파드가 역할을 맡는 것을 효과적으로 방지할 수 있습니다. CLI `eksctl` 은 서비스 어카운트/IAM 역할을 생성하는 데 사용할 때 이 작업을 자동으로 수행합니다. 자세한 내용은 [eksctl 문서](https://eksctl.io/usage/iamserviceaccounts/)를 참조하세요.
### 애플리케이션이 IMDS에 액세스해야 하는 경우 IMDSv2를 사용하고 EC2 인스턴스의 홉 제한을 2로 늘리세요
[IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html)에서는 PUT 요청을 사용하여 세션 토큰을 가져와야 합니다. 초기 PUT 요청에는 세션 토큰에 대한 TTL이 포함되어야 합니다. 최신 버전의 AWS SDK는 이를 처리하고 해당 토큰의 갱신을 자동으로 처리합니다. 또한 IP 전달을 방지하기 위해 EC2 인스턴스의 기본 홉 제한이 의도적으로 1로 설정되어 있다는 점에 유의해야 합니다. 결과적으로 EC2 인스턴스에서 실행되는 세션 토큰을 요청하는 파드는 결국 시간 초과되어 IMDSv1 데이터 흐름을 사용하도록 대체될 수 있습니다. EKS는 v1과 v2를 모두 _활성화_하고 eksctl 또는 공식 CloudFormation 템플릿으로 프로비저닝된 노드에서 홉 제한을 2로 변경하여 지원 IMDSv2를 추가합니다.
### 서비스 어카운트 토큰 자동 마운트 비활성화
애플리케이션이 Kubernetes API를 호출할 필요가 없는 경우 애플리케이션 의 PodSpec에서 `automountServiceAccountToken` 속성을 `false`로 설정하거나 각 네임스페이스의 기본 서비스 어카운트을 패치하여 더 이상 파드에 자동으로 마운트되지 않도록 합니다. 예:
```bash
kubectl patch serviceaccount default -p $'automountServiceAccountToken: false'
```
### 각 애플리케이션에 전용 서비스 어카운트 사용
각 애플리케이션에는 고유한 전용 서비스 어카운트이 있어야 합니다. 이는 쿠버네티스 API 및 IRSA의 서비스 어카운트에 적용됩니다.
!!! attention
전체 클러스터 업그레이드를 수행하는 대신 클러스터 업그레이드에 블루/그린 접근 방식을 사용하는 경우 각 IRSA IAM 역할의 신뢰 정책을 새 클러스터의 OIDC 엔드포인트로 업데이트해야 합니다. 블루/그린 클러스터 업그레이드는 이전 클러스터와 함께 최신 버전의 쿠버네티스를 실행하는 클러스터를 생성하고 로드밸런서 또는 서비스 메시를 사용하여 이전 클러스터에서 실행되는 서비스에서 새 클러스터로 트래픽을 원활하게 이동하는 것입니다.
### 루트가 아닌 사용자로 애플리케이션 실행
컨테이너는 기본적으로 루트로 실행됩니다. 이렇게 하면 웹 자격 증명 토큰 파일을 읽을 수 있지만 컨테이너를 루트로 실행하는 것은 모범 사례로 간주되지 않습니다. 또는 PodSpec에 `spec.securityContext.runAsUser` 속성을 추가하는 것이 좋습니다. `runAsUser` 의 값 은 임의의 값입니다.
다음 예제에서 파드 내의 모든 프로세스는 `RunAsUser` 필드에 지정된 사용자 ID로 실행됩니다.
```yaml
apiVersion: v1
kind: Pod
metadata:
name: security-context-demo
spec:
securityContext:
runAsUser: 1000
runAsGroup: 3000
containers:
- name: sec-ctx-demo
image: busybox
command: [ "sh", "-c", "sleep 1h" ]
```
루트가 아닌 사용자로 컨테이너를 실행하면 기본적으로 토큰에 0600 [Root] 권한이 할당되기 때문에 컨테이너가 IRSA 서비스 어카운트 토큰을 읽을 수 없습니다. fsgroup=65534 [Nobody]를 포함하도록 컨테이너의 securityContext를 업데이트하면 컨테이너가 토큰을 읽을 수 있습니다.
```yaml
spec:
securityContext:
fsGroup: 65534
```
Kubernetes 1.19 및 이후 버전에서는 이 변경이 더 이상 필요하지 않습니다.
### 애플리케이션에 대한 최소 접근 권한 부여
[Action Hero](https://github.com/princespaghetti/actionhero)는 애플리케이션이 제대로 작동하는 데 필요한 AWS API 호출 및 해당 IAM 권한을 식별하기 위해 애플리케이션과 함께 실행할 수 있는 유틸리티입니다. 애플리케이션에 할당된 IAM 역할의 범위를 점진적으로 제한하는 데 도움이 된다는 점에서 [IAM Access Advisor](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_access-advisor.html)와 유사합니다. 자세한 내용은 AWS 리소스에 [최소 접근 권한](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html#grant-least-privilege) 부여에 대한 설명서를 참조하십시오.
### 불필요한 익명 접근 검토 및 철회
이상적으로는 모든 API 작업에 대해 익명의 접근을 비활성화하여야 합니다. 쿠버네티스 기본 제공 사용자 system:anonymous에 대한 RoleBinding 또는 ClusterRoleBinding을 생성하여 익명 액세스 권한을 부여합니다. [rbac-lookup](https://github.com/FairwindsOps/rbac-lookup) 도구를 사용하여 system:anonymous 사용자가 클러스터에 대해 갖는 권한을 식별할 수 있습니다.
```bash
./rbac-lookup | grep -P 'system:(anonymous)|(unauthenticated)'
system:anonymous cluster-wide ClusterRole/system:discovery
system:unauthenticated cluster-wide ClusterRole/system:discovery
system:unauthenticated cluster-wide ClusterRole/system:public-info-viewer
```
system:public-info-viewer외의 ClusterRole 또는 모든 역할은 system:anonymous 사용자 또는 system:unauthenticated 그룹에 바인딩되지 않아야 합니다.
특정 API에서 익명 액세스를 활성화해야 하는 정당한 이유가 있을 수 있습니다. 클러스터의 경우 익명 사용자가 특정 API만 액세스할 수 있도록 하고 인증 없이 해당 API를 노출해도 클러스터가 취약해지지 않도록 해야 합니다.
Kubernetes/EKS 버전 1.14 이전에는 system:unauthenticated 그룹이 기본적으로 system:discovery 및 system:basic-user 클러스터 역할에 연결되었습니다. 클러스터를 버전 1.14 이상으로 업데이트했더라도 클러스터를 업데이트해도 이런 권한이 취소되지 않으므로 클러스터에서 이런 권한이 계속 활성화될 수 있습니다.
system:public-info-viewer를 제외하고 어떤 ClusterRole에 "system:unauthenticated"가 있는지 확인하려면 다음 명령을 실행할 수 있습니다(jq 유틸리티가 필요합니다):
```bash
kubectl get ClusterRoleBinding -o json | jq -r '.items[] | select(.subjects[]?.name =="system:unauthenticated") | select(.metadata.name != "system:public-info-viewer") | .metadata.name'
```
그리고 "system:unauthenticated"는 아래 명령을 사용하여 "system:public-info-viewer"를 제외한 모든 역할에서 제거할 수 있습니다.
```bash
kubectl get ClusterRoleBinding -o json | jq -r '.items[] | select(.subjects[]?.name =="system:unauthenticated") | select(.metadata.name != "system:public-info-viewer") | del(.subjects[] | select(.name =="system:unauthenticated"))' | kubectl apply -f -
```
또는 kubectl describe 및 kubectl edit을 사용하여 수동으로 확인하고 제거할 수 있다. system:unauthenticated 그룹에 클러스터에 대한 system:discovery 권한이 있는지 확인하려면 다음 명령을 실행하십시오.
```bash
kubectl describe clusterrolebindings system:discovery
Name: system:discovery
Labels: kubernetes.io/bootstrapping=rbac-defaults
Annotations: rbac.authorization.kubernetes.io/autoupdate: true
Role:
Kind: ClusterRole
Name: system:discovery
Subjects:
Kind Name Namespace
---- ---- ---------
Group system:authenticated
Group system:unauthenticated
```
system:unauthenticated 그룹에 클러스터에 대한 system:basic-user 권한이 있는지 확인하려면 다음 명령을 실행합니다.
```bash
kubectl describe clusterrolebindings system:basic-user
Name: system:basic-user
Labels: kubernetes.io/bootstrapping=rbac-defaults
Annotations: rbac.authorization.kubernetes.io/autoupdate: true
Role:
Kind: ClusterRole
Name: system:basic-user
Subjects:
Kind Name Namespace
---- ---- ---------
Group system:authenticated
Group system:unauthenticated
```
system:unauthenticated 그룹이 클러스터의 system:discovery 및/또는 system:basic-user ClusterRoles에 바인딩된 경우 이런 역할을 system:unauthenticated 그룹에서 분리해야 합니다. 다음 명령을 사용하여 system:discovery ClusterRoleBinding을 편집합니다:
```bash
kubectl edit clusterrolebindings system:discovery
```
위 명령은 아래와 같이 편집기에서 system:discovery ClusterRoleBinding의 현재 정의를 엽니다:
```yaml
# Please edit the object below. Lines beginning with a '#' will be ignored,
# and an empty file will abort the edit. If an error occurs while saving this file will be
# reopened with the relevant failures.
#
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
annotations:
rbac.authorization.kubernetes.io/autoupdate: "true"
creationTimestamp: "2021-06-17T20:50:49Z"
labels:
kubernetes.io/bootstrapping: rbac-defaults
name: system:discovery
resourceVersion: "24502985"
selfLink: /apis/rbac.authorization.k8s.io/v1/clusterrolebindings/system%3Adiscovery
uid: b7936268-5043-431a-a0e1-171a423abeb6
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: system:discovery
subjects:
- apiGroup: rbac.authorization.k8s.io
kind: Group
name: system:authenticated
- apiGroup: rbac.authorization.k8s.io
kind: Group
name: system:unauthenticated
```
위 편집기 화면의 "Subjects" 섹션에서 system:unauthenticated 그룹 항목을 삭제합니다.
system:basic-user ClusterRoleBinding에 대해 동일한 단계를 반복합니다.
### 대체 접근 방식
IRSA는 파드에 AWS "ID"를 할당하는 _선호 되는 방법_이지만 애플리케이션에 최신 버전의 AWS SDK를 포함해야 합니다. 현재 IRSA를 지원하는 SDK의 전체 목록은 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts-minimum-sdk.html)를 참조합니다. IRSA 호환 SDK로 즉시 업데이트할 수 없는 애플리케이션이 있는 경우, [kube2iam](https://github.com/jtblin/kube2iam) 및 [kiam](https://github.com/uswitch/kiam) 을 포함하여 쿠버네티스 파드에 IAM 역할을 할당하는 데 사용할 수 있는 몇 가지 커뮤니티 구축 솔루션이 있습니다. AWS는 이런 솔루션의 사용을 보증하거나 용인하지 않지만 IRSA와 유사한 결과를 얻기 위해 커뮤니티에서 자주 사용합니다. | eks | search exclude true AWS IAM Identity and Access Management https docs aws amazon com IAM latest UserGuide introduction html AWS AWS AWS AWS EC2 IAM https docs aws amazon com IAM latest UserGuide id html id iam users IAM https docs aws amazon com IAM latest UserGuide id html id iam roles AWS https docs aws amazon com IAM latest UserGuide intro structure html intro structure principal IAM https docs aws amazon com IAM latest UserGuide access policies html EKS Bearer X 509 OIDC kube apiserver EKS Webhook https kubernetes io docs reference access authn authz authentication webhook token authentication https kubernetes io docs reference access authn authz authentication service account tokens 2021 2 21 OIDC EKS kubectl AWS CLI aws iam authenticator https github com kubernetes sigs aws iam authenticator kube apiserver URL URL ARN ID kube apiserver bash aws eks get token cluster name Go golang package main import fmt log sigs k8s io aws iam authenticator pkg token func main g token NewGenerator false false tk err g Get cluster name if err nil log Fatal err fmt Println tk json kind ExecCredential apiVersion client authentication k8s io v1alpha1 spec status expirationTimestamp 2020 02 19T16 08 27Z token k8s aws v1 aHR0cHM6Ly9zdHMuYW1hem9uYXdzLmNvbS8 QWN0aW9uPUdldENhbGxlcklkZW50aXR5JlZlcnNpb249MjAxMS0wNi0xNSZYLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFKTkdSSUxLTlNSQzJXNVFBJTJGMjAyMDAyMTklMkZ1cy1lYXN0LTElMkZzdHMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDIwMDIxOVQxNTU0MjdaJlgtQW16LUV4cGlyZXM9NjAmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JTNCeC1rOHMtYXdzLWlkJlgtQW16LVNpZ25hdHVyZT0yMjBmOGYzNTg1ZTMyMGRkYjVlNjgzYTVjOWE0MDUzMDFhZDc2NTQ2ZjI0ZjI4MTExZmRhZDA5Y2Y2NDhhMzkz k8s aws v1 base64 bash https sts amazonaws com Action GetCallerIdentity Version 2011 06 15 X Amz Algorithm AWS4 HMAC SHA256 X Amz Credential 0KIAJPFRILKNSRC2W5QA 2F20200219 2F REGION 2Fsts 2Faws4 request X Amz Date 20200219T155427Z X Amz Expires 60 X Amz SignedHeaders host 3Bx k8s aws id X Amz Signature BB0f8f3285e320ddb5e683a5c9a405301ad76546f24f28111fdad09cf648a393 Amazon URL GetCallerIdentity API https docs aws amazon com STS latest APIReference API GetCallerIdentity html 15 TTL kubectl ID AWS IAM kube apiserver kube system aws auth RBAC aws auth IAM IAM RBAC RBAC IAM API CI CD EC2 AWS aws auth RBAC AWS API IAM AWS IAM EKS RBAC aws auth IAM aws auth IAM IAM RBAC attention aws auth IAM EKS aws auth IAM aws auth mapRoles K8s RBAC IAM CloudTrail yaml rolearn arn aws iam XXXXXXXXXXXX role testRole username testRole groups system masters 1 20 User Extra sessionName 0 RoleBinding ClusterRoleBinding AWS Role ClusterRole audit2rbac https github com liggitt audit2rbac API EKS EKS API API IAM RBAC API VPC EKS https docs aws amazon com eks latest userguide cluster endpoint html CIDR IP CIDR VPC ENI kubelet API IP IAM Amazon EKS IAM RBAC system masters aws auth IAM aws auth aws auth aws auth aws auth aws auth eksctl eksctl CLI aws auth ID CLI bash eksctl create iamidentitymapping help IAM bash eksctl create iamidentitymapping cluster clusterName region region arn arn aws iam 123456 role testing group system masters username admin eksctl https eksctl io usage iam identity mappings keikoproj aws auth https github com keikoproj aws auth keikoproj aws auth cli go CLI bash go get github com keikoproj aws auth aws auth help kubectl krew https krew sigs k8s io aws auth bash kubectl krew install aws auth kubectl aws auth go GitHub aws auth https github com keikoproj aws auth blob master README md AWS IAM Authenticator CLI https github com kubernetes sigs aws iam authenticator tree master cmd aws iam authenticator aws iam authenticator CLI GitHub https github com kubernetes sigs aws iam authenticator releases IAM bash aws iam authenticator add role rolearn arn aws iam 185309785115 role lil dev role cluster username lil dev user groups system masters kubeconfig kube config aws auth kubectl who can https github com aquasecurity kubectl who can rbac lookup https github com FairwindsOps detective md NCC Group https www nccgroup trust us about us newsroom and events blog 2019 august tools and methods for auditing kubernetes rbac policies mkt tok eyJpIjoiWWpGa056SXlNV1E0WWpRNSIsInQiOiJBT1hyUTRHYkg1TGxBV0hTZnRibDAyRUZ0VzBxbndnRzNGbTAxZzI0WmFHckJJbWlKdE5WWDdUQlBrYVZpMnNuTFJ1R3hacVYrRCsxYWQ2RTRcL2pMN1BtRVA1ZFZcL0NtaEtIUDdZV3pENzNLcE1zWGVwUndEXC9Pb2tmSERcL1pUaGUifQ 3D 3D IAM EKS impersonation https kubernetes io docs reference access authn authz authentication user impersonation GitHub OIDC ID AWS Teleport GitHub EKS https aws amazon com blogs opensource authenticating eks github credentials teleport kube oidc proxy EKS OIDC https aws amazon com blogs opensource consistent oidc authentication across multiple eks clusters using kube oidc proxy attention EKS OIDC Amazon EKS OIDC https aws amazon com blogs containers introducing oidc identity provider authentication amazon eks OIDC Dex EKS Dex dex k8s authenticator Amazon EKS https aws amazon com blogs containers using dex dex k8s authenticator to authenticate to amazon eks OIDC AWS SSO https docs aws amazon com singlesignon latest userguide what is html Azure AD AWS AWS CLI v2 0 SSO CLI IAM RBAC IAM kubectl Assume rbac dev https github com mhausenblas rbac dev RBAC API AWS https github com kubernetes sigs aws load balancer controller ALB AWS API RBAC JWT var run secrets kubernetes io serviceaccount json iss kubernetes serviceaccount kubernetes io serviceaccount namespace default kubernetes io serviceaccount secret name default token 5pv4z kubernetes io serviceaccount service account name default kubernetes io serviceaccount service account uid 3b36ddb5 438c 11ea 9438 063a49b60fba sub system serviceaccount default default API yaml apiVersion rbac authorization k8s io v1 kind ClusterRole metadata annotations rbac authorization kubernetes io autoupdate true creationTimestamp 2020 01 30T18 13 25Z labels kubernetes io bootstrapping rbac defaults name system discovery resourceVersion 43 selfLink apis rbac authorization k8s io v1 clusterroles system 3Adiscovery uid 350d2ab8 438c 11ea 9438 063a49b60fba rules nonResourceURLs api api apis apis healthz openapi openapi version version verbs get API API API Role ClusterRole API spec serviceAccountName https kubernetes io docs reference access authn authz rbac service account permissions note 1 24 var run secrets kubernetes io serviceaccount API 1 24 1 Jenkins API metadata annotations kubernetes io service account name SERVICE ACCOUNT NAME kubernetes io service account token IAM IRSA IRSA IAM Service Account Token Volume Projection https kubernetes io docs tasks configure pod container configure service account service account token volume projection IAM API OIDC Kubernetes OIDC IAM AWS API AWS API AWS SDK sts AssumeRoleWithWebIdentity IAM AWS IRSA JWT json aud sts amazonaws com exp 1582306514 iat 1582220114 iss https oidc eks us west 2 amazonaws com id D43CF17C27A865933144EA99A26FB128 kubernetes io namespace default pod name alpine 57b5664646 rf966 uid 5a20f883 5407 11ea a85c 0e62b7a4a436 serviceaccount name s3 read only uid a720ba5c 5406 11ea 9438 063a49b60fba nbf 1582220114 sub system serviceaccount default s3 read only S3 S3 IAM json AssumedRoleUser AssumedRoleId AROA36C6WWEJULFUYMPB6 abc Arn arn aws sts 123456789012 assumed role eksctl winterfell addon iamserviceaccount de Role1 1D61LT75JH3MB abc Audience sts amazonaws com Provider arn aws iam 123456789012 oidc provider oidc eks us west 2 amazonaws com id D43CF17C27A865933144EA99A26FB128 SubjectFromWebIdentityToken system serviceaccount default s3 read only Credentials SecretAccessKey ORJ 8Adk wW nU8FETq7 mOqeA8Z6jlPihnV8hX1 SessionToken FwoGZXIvYXdzEGMaDMLxAZkuLpmSwYXShiL9A1S0X87VBC1mHCrRe pB2oes l1eXxUYnPJyC9ayOoXMvqXQsomq0xs6OqZ3vaa5Iw1HIyA4Cv1suLaOCoU3hNvOIJ6C94H1vU0siQYk7DIq9Av5RZe uE2FnOctNBvYLd3i0IZo1ajjc00yRK3v24VRq9nQpoPLuqyH2jzlhCEjXuPScPbi5KEVs9fNcOTtgzbVf7IG2gNiwNs5aCpN4Bv Zv2A6zp5xGz9cWj2f0aD9v66vX4bexOs5t YYhwuwAvkkJPSIGvxja0xRThnceHyFHKtj0H bi PWAtlI8YJcDX69cM30JAHDdQH ltm 4scFptW1hlvMaP WReCAaCrsHrAT yka7ttw5YlUyvZ8EPog j6fwHlxmrXM9h1BqdikomyJU00gm1 FJelfP 1zAwcyrxCnbRl3ARFrAt8hIlrT6Vyu8WvWtLxcI8KcLcJQb LgkW sCTGlYcY8z3zkigJMbYn07ewTL5Ss7LazTJJa758I7PZan v3xQHd5DEc5WBneiV3iOznDFgup0VAMkIviVjVCkszaPSVEdK2NU7jtrh6Jfm7bU 3P6ZG CkyDLIa8MBn9KPXeJd y jTk5Ii fIwO mDpGNUribg6TPxhzZ8b XdZO1kS1gVgqjXyVC M BRBh6C4H21w eMzjCtDIpoxt5rGKL6Nu IFMipoC4fgx6LIIHwtGYMG7SWQi7OsMAkiwZRg0n68 RqWgLzBt 4pfjSRYuk Expiration 2020 02 20T18 49 50Z AccessKeyId 0SIA12CFWWEJUMHACL7Z EKS Mutating AWS ARN bash AWS ROLE ARN arn aws iam AWS ACCOUNT ID role IAM ROLE NAME AWS WEB IDENTITY TOKEN FILE var run secrets eks amazonaws com serviceaccount token kubelet TTL 80 24 AWS SDK IRSA AWS https docs aws amazon com eks latest userguide iam roles for service accounts technical overview html ID IRSA aws node aws node EC2 IP AmazonEKS CNI Policy EC2ContainerRegistryReadOnly ENI IP ECR AWS IRSA aws node https github com aws aws eks best practices tree master projects enable irsa src IRSA IRSA IRSA https docs aws amazon com AWSEC2 latest UserGuide configuring instance metadata service html caution IRSA IMDSv2 1 bash aws ec2 modify instance metadata options instance id value http tokens required http put response hop limit 1 Terraform tf hl lines 7 resource aws launch template foo name foo metadata options http endpoint enabled http tokens required http put response hop limit 1 instance metadata tags enabled iptables EC2 https docs aws amazon com AWSEC2 latest UserGuide instancedata data retrieval html instance metadata limiting access IRSA AWS SDK SDK IRSA IAM IRSA CLI eksctl IAM eksctl https eksctl io usage iamserviceaccounts IMDS IMDSv2 EC2 2 IMDSv2 https docs aws amazon com AWSEC2 latest UserGuide configuring instance metadata service html PUT PUT TTL AWS SDK IP EC2 1 EC2 IMDSv1 EKS v1 v2 eksctl CloudFormation 2 IMDSv2 Kubernetes API PodSpec automountServiceAccountToken false bash kubectl patch serviceaccount default p automountServiceAccountToken false API IRSA attention IRSA IAM OIDC PodSpec spec securityContext runAsUser runAsUser RunAsUser ID yaml apiVersion v1 kind Pod metadata name security context demo spec securityContext runAsUser 1000 runAsGroup 3000 containers name sec ctx demo image busybox command sh c sleep 1h 0600 Root IRSA fsgroup 65534 Nobody securityContext yaml spec securityContext fsGroup 65534 Kubernetes 1 19 Action Hero https github com princespaghetti actionhero AWS API IAM IAM IAM Access Advisor https docs aws amazon com IAM latest UserGuide access policies access advisor html AWS https docs aws amazon com IAM latest UserGuide best practices html grant least privilege API system anonymous RoleBinding ClusterRoleBinding rbac lookup https github com FairwindsOps rbac lookup system anonymous bash rbac lookup grep P system anonymous unauthenticated system anonymous cluster wide ClusterRole system discovery system unauthenticated cluster wide ClusterRole system discovery system unauthenticated cluster wide ClusterRole system public info viewer system public info viewer ClusterRole system anonymous system unauthenticated API API API Kubernetes EKS 1 14 system unauthenticated system discovery system basic user 1 14 system public info viewer ClusterRole system unauthenticated jq bash kubectl get ClusterRoleBinding o json jq r items select subjects name system unauthenticated select metadata name system public info viewer metadata name system unauthenticated system public info viewer bash kubectl get ClusterRoleBinding o json jq r items select subjects name system unauthenticated select metadata name system public info viewer del subjects select name system unauthenticated kubectl apply f kubectl describe kubectl edit system unauthenticated system discovery bash kubectl describe clusterrolebindings system discovery Name system discovery Labels kubernetes io bootstrapping rbac defaults Annotations rbac authorization kubernetes io autoupdate true Role Kind ClusterRole Name system discovery Subjects Kind Name Namespace Group system authenticated Group system unauthenticated system unauthenticated system basic user bash kubectl describe clusterrolebindings system basic user Name system basic user Labels kubernetes io bootstrapping rbac defaults Annotations rbac authorization kubernetes io autoupdate true Role Kind ClusterRole Name system basic user Subjects Kind Name Namespace Group system authenticated Group system unauthenticated system unauthenticated system discovery system basic user ClusterRoles system unauthenticated system discovery ClusterRoleBinding bash kubectl edit clusterrolebindings system discovery system discovery ClusterRoleBinding yaml Please edit the object below Lines beginning with a will be ignored and an empty file will abort the edit If an error occurs while saving this file will be reopened with the relevant failures apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata annotations rbac authorization kubernetes io autoupdate true creationTimestamp 2021 06 17T20 50 49Z labels kubernetes io bootstrapping rbac defaults name system discovery resourceVersion 24502985 selfLink apis rbac authorization k8s io v1 clusterrolebindings system 3Adiscovery uid b7936268 5043 431a a0e1 171a423abeb6 roleRef apiGroup rbac authorization k8s io kind ClusterRole name system discovery subjects apiGroup rbac authorization k8s io kind Group name system authenticated apiGroup rbac authorization k8s io kind Group name system unauthenticated Subjects system unauthenticated system basic user ClusterRoleBinding IRSA AWS ID AWS SDK IRSA SDK AWS https docs aws amazon com eks latest userguide iam roles for service accounts minimum sdk html IRSA SDK kube2iam https github com jtblin kube2iam kiam https github com uswitch kiam IAM AWS IRSA |
eks AWS AWS exclude true search | ---
search:
exclude: true
---
# 멀티 어카운트 전략
AWS는 비즈니스 애플리케이션 및 데이터를 분리하고 관리하는 데 도움이 되는 [다중 계정 전략](https://docs.aws.amazon.com/whitepapers/latest/organizing-your-aws-environment/organizing-your-aws-environment.html) 및 AWS 조직을 사용할 것을 권장합니다. 다중 계정 전략을 사용하면 [많은 이점](https://docs.aws.amazon.com/whitepapers/latest/organizing-your-aws-environment/benefits-of-using-multiple-aws-accounts.html)이 있습니다.
+ AWS API 서비스 할당량이 증가했습니다. 할당량은 AWS 계정에 적용되며, 워크로드에 여러 계정을 사용하면 워크로드에 사용할 수 있는 전체 할당량이 늘어납니다.
+ 더 간단한 인증 및 접근 권한 관리 (IAM) 정책. 워크로드와 이를 지원하는 운영자에게 자체 AWS 계정에만 액세스 권한을 부여하면 최소 권한 원칙을 달성하기 위해 세분화된 IAM 정책을 수립하는 데 걸리는 시간을 줄일 수 있습니다.
+ AWS 리소스의 격리 개선. 설계상 계정 내에서 프로비저닝된 모든 리소스는 다른 계정에 프로비저닝된 리소스와 논리적으로 격리됩니다. 이 격리 경계를 통해 애플리케이션 관련 문제, 잘못된 구성 또는 악의적인 동작의 위험을 제한할 수 있습니다. 한 계정 내에서 문제가 발생하면 다른 계정에 포함된 워크로드에 미치는 영향을 줄이거나 제거할 수 있습니다.
+ [AWS 다중 계정 전략 백서](https://docs.aws.amazon.com/whitepapers/latest/organizing-your-aws-environment/benefits-of-using-multiple-aws-accounts.html#group-workloads-based-on-business-purpose-and-ownership)에서 추가적인 혜택에 대해 설명되어 있습니다.
다음 섹션에서는 중앙 집중식 또는 분산형 EKS 클러스터 접근 방식을 사용하여 EKS 워크로드에 대한 다중 계정 전략을 구현하는 방법을 설명합니다.
## 멀티 테넌트 클러스터를 위한 멀티 워크로드 계정 전략 계획
다중 계정 AWS 전략에서는 특정 워크로드에 속하는 리소스(예: S3 버킷, ElastiCache 클러스터 및 DynamoDB 테이블)는 모두 해당 워크로드에 대한 모든 리소스가 포함된 AWS 계정에서 생성됩니다. 이를 워크로드 계정이라고 하며, EKS 클러스터는 클러스터 계정이라고 하는 계정에 배포됩니다. 클러스터 계정은 다음 섹션에서 살펴보겠습니다. 전용 워크로드 계정에 리소스를 배포하는 것은 쿠버네티스 리소스를 전용 네임스페이스에 배포하는 것과 비슷합니다.
그런 다음 필요에 따라 소프트웨어 개발 라이프사이클 또는 기타 요구 사항에 따라 워크로드 계정을 더 세분화할 수 있습니다. 예를 들어 특정 워크로드에는 프로덕션 계정, 개발 계정 또는 특정 지역에서 해당 워크로드의 인스턴스를 호스팅하는 계정이 있을 수 있습니다. 추가 정보는 [AWS 백서](https://docs.aws.amazon.com/whitepapers/latest/organizing-your-aws-environment/organizing-workload-oriented-ous.html)에서 확인할 수 있습니다.
EKS 다중 계정 전략을 구현할 때 다음과 같은 접근 방식을 채택할 수 있습니다:
## 중앙 집중식 EKS 클러스터
이 접근 방식에서는 EKS 클러스터를 `클러스터 계정`이라는 단일 AWS 계정에 배포합니다. [IAM roles for Service Accounts (IRSA)](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html) 또는 [EKS Pod Identitiesentities](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html)를 사용하여 임시 AWS 자격 증명을 제공하고 [AWS Resource Access Manager (RAM)](https://aws.amazon.com/ram/) 를 사용하여 네트워크 액세스를 단순화하면 멀티 테넌트 EKS 클러스터에 다중 계정 전략을 채택할 수 있습니다. 클러스터 계정에는 VPC, 서브넷, EKS 클러스터, EC2/Fargate 컴퓨팅 리소스 (작업자 노드) 및 EKS 클러스터를 실행하는 데 필요한 추가 네트워킹 구성이 포함됩니다.
멀티 테넌트 클러스터를 위한 멀티 워크로드 계정 전략에서 AWS 계정은 일반적으로 리소스 그룹을 격리하기 위한 메커니즘으로 [쿠버네티스 네임스페이스](https://kubernetes.io/docs/concepts/overview/working-with-objects/namespaces/)와 일치합니다. 멀티 테넌트 EKS 클러스터에 대한 멀티 계정 전략을 구현할 때는 EKS 클러스터 내의 [테넌트 격리의 모범 사례](/security/docs/multitenancy/)를 여전히 따라야 합니다.
AWS 조직에 `클러스터 계정`을 여러 개 보유할 수 있으며, 소프트웨어 개발 수명 주기 요구 사항에 맞는 `클러스터 계정`을 여러 개 보유하는 것이 가장 좋습니다. 대규모 워크로드를 운영하는 경우 모든 워크로드에 사용할 수 있는 충분한 쿠버네티스 및 AWS 서비스 할당량을 확보하려면 여러 개의 `클러스터 계정`이 필요할 수 있습니다.
| ![](./images/multi-account-eks.jpg) |
|:--:|
| 위 다이어그램에서 AWS RAM은 클러스터 계정의 서브넷을 워크로드 계정으로 공유하는 데 사용됩니다. 그런 다음 EKS 파드에서 실행되는 워크로드는 IRSA 또는 EKS Pod Identitiesentities와 역할 체인을 사용하여 워크로드 계정에서 역할을 맡아 AWS 리소스에 액세스합니다. |
### 멀티 테넌트 클러스터를 위한 멀티 워크로드 계정 전략 구현
#### AWS 리소스 액세스 관리자와 서브넷 공유
[AWS Resource Access Manager](https://aws.amazon.com/ram/) (RAM)을 사용하면 AWS 계정 전체에서 리소스를 공유할 수 있습니다.
[AWS 조직에 RAM이 활성화되어 있는 경우](https://docs.aws.amazon.com/ram/latest/userguide/getting-started-sharing.html#getting-started-sharing-orgs), 클러스터 계정의 VPC 서브넷을 워크로드 계정과 공유할 수 있습니다. 이렇게 하면 [Amazon ElastiCache](https://aws.amazon.com/elasticache/) 클러스터 또는 [Amazon Relational Database Service (RDS)](https://aws.amazon.com/rds/) 데이터베이스 등 워크로드 계정이 소유한 AWS 리소스를 EKS 클러스터와 동일한 VPC에 배포하고 EKS 클러스터에서 실행되는 워크로드에서 사용할 수 있습니다.
RAM을 통해 리소스를 공유하려면 클러스터 계정의 AWS 콘솔에서 RAM을 열고 "리소스 공유" 및 "리소스 공유 생성"을 선택합니다. 리소스 공유의 이름을 지정하고 공유하려는 서브넷을 선택합니다. 다시 다음을 선택하고 서브넷을 공유하려는 워크로드 계정의 12자리 계정 ID를 입력하고 다음을 다시 선택한 후 Create resource share (리소스 공유 생성) 를 클릭하여 완료합니다. 이 단계가 끝나면 워크로드 계정은 리소스를 해당 서브넷에 배포할 수 있습니다.
프로그래밍 방식 또는 IaC로 RAM 공유를 생성할 수도 있습니다.
#### EKS Pod Identitiesentities와 IRSA 중 선택
re:Invent 2023에서 AWS는 EKS의 파드에 임시 AWS 자격 증명을 전달하는 더 간단한 방법으로 EKS Pod Identitiesentities를 출시했습니다. IRSA 및 EKS 파드 자격 증명은 모두 EKS 파드에 임시 AWS 자격 증명을 전달하는 유효한 방법이며 앞으로도 계속 지원될 것입니다. 어떤 전달 방법이 요구 사항에 가장 잘 맞는지 고려해야 합니다.
EKS 클러스터 및 여러 AWS 계정을 사용하는 경우 IRSA는 EKS 클러스터가 직접 호스팅되는 계정 이외의 AWS 계정에서 역할을 직접 맡을 수 있지만 EKS Pod Identities는 역할 체인을 구성해야 합니다. 자세한 비교는 [EKS 문서](https://docs.aws.amazon.com/eks/latest/userguide/service-accounts.html#service-accounts-iam)를 참조하십시오.
##### IRSA(IAM Roles for Service Accounts)를 사용하여 AWS API 리소스에 액세스
[IAM Roles for Service Accounts (IRSA)](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html)를 사용하면 EKS에서 실행되는 워크로드에 임시 AWS 자격 증명을 제공할 수 있습니다. IRSA를 사용하여 클러스터 계정에서 워크로드 계정의 IAM 역할에 대한 임시 자격 증명을 얻을 수 있습니다. 이를 통해 클러스터 계정의 EKS 클러스터에서 실행되는 워크로드가 워크로드 계정에 호스팅된 S3 버킷과 같은 AWS API 리소스를 원활하게 사용하고 Amazon RDS 데이터베이스 또는 Amazon EFS File Systems와 같은 리소스에 IAM 인증을 사용할 수 있습니다.
워크로드 계정에서 IAM 인증을 사용하는 AWS API 리소스 및 기타 리소스는 동일한 워크로드 계정의 IAM 역할 자격 증명으로만 액세스할 수 있습니다. 단, 교차 계정 액세스가 가능하고 명시적으로 활성화된 경우는 예외입니다.
##### 교차 계정 액세스를 위한 IRSA 활성화
클러스터 계정의 워크로드에 대해 IRSA가 워크로드 계정의 리소스에 액세스할 수 있도록 하려면 먼저 워크로드 계정에 IAM OIDC ID 공급자를 생성해야 합니다. IRSA 설정 절차와 동일한 방법으로 이 작업을 수행할 수 있습니다. 단, 워크로드 계정에 ID 공급자가 생성된다는 점만 다릅니다: https://docs.aws.amazon.com/eks/latest/userguide/enable-iam-roles-for-service-accounts.html
그런 다음 EKS의 워크로드에 대해 IRSA를 구성할 때 [설명서와 동일한 단계를 수행](https://docs.aws.amazon.com/eks/latest/userguide/associate-service-account-role.html) 할 수 있지만 “예제 다른 계정의 클러스터에서 ID 공급자 생성” 섹션에서 설명한 대로 [워크로드 계정의 12자리 계정 ID](https://docs.aws.amazon.com/eks/latest/userguide/cross-account-access.html)를 사용할 수 있습니다.
이를 구성한 후에는 EKS에서 실행되는 애플리케이션이 해당 서비스 계정을 직접 사용하여 워크로드 계정에서 역할을 담당하고 해당 계정 내의 리소스를 사용할 수 있습니다.
##### EKS Pod Identities로 AWS API 리소스에 액세스
[EKS Pod Identities](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html)는 EKS에서 실행되는 워크로드에 AWS 자격 증명을 제공하는 새로운 방법입니다. EKS Pod Identities는 EKS의 파드에 AWS 자격 증명을 제공하기 위해 더 이상 OIDC 구성을 관리할 필요가 없기 때문에 AWS 리소스 구성을 간소화합니다.
##### 계정 간 액세스를 위한 EKS Pod Identities 활성화
IRSA와 달리 EKS Pod Identities는 EKS 클러스터와 동일한 계정의 역할에 직접 액세스 권한을 부여하는 데만 사용할 수 있습니다. 다른 AWS 계정의 역할에 액세스하려면 EKS Pod Identities를 사용하는 파드가 [역할 체인](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-role-chaining)을 수행해야 합니다.
다양한 AWS SDK에서 사용할 수 있는 [프로세스 자격 증명 공급자](https://docs.aws.amazon.com/sdkref/latest/guide/feature-process-credentials.html)를 사용하여 aws 구성 파일이 포함된 애플리케이션 프로필에서 역할 체인을 구성할 수 있습니다. 다음과 같이 프로필을 구성할 때 `credentials _process`를 자격 증명 소스로 사용할 수 있습니다.
```
# Content of the AWS Config file
[profile account_b_role]
source_profile = account_a_role
role_arn = arn:aws:iam::444455556666:role/account-b-role
[profile account_a_role]
credential_process = /eks-credential-processrole.sh
```
credential_process에 의해 호출된 스크립트의 소스:
```
#!/bin/bash
# Content of the eks-credential-processrole.sh
# This will retreive the credential from the pod identities agent,
# and return it to the AWS SDK when referenced in a profile
curl -H "Authorization: $(cat $AWS_CONTAINER_AUTHORIZATION_TOKEN_FILE)" $AWS_CONTAINER_CREDENTIALS_FULL_URI | jq -c '{AccessKeyId: .AccessKeyId, SecretAccessKey: .SecretAccessKey, SessionToken: .Token, Expiration: .Expiration, Version: 1}'
```
계정 A와 B 역할을 모두 포함하는 aws 구성 파일을 생성하고 파드 사양에 AWS_CONFIG_FILE 및 AWS_PROFILE 환경 변수를 지정할 수 있습니다.환경 변수가 파드 사양에 이미 존재하는 경우 EKS 파드 아이덴티티 웹훅은 오버라이드되지 않는다.
```yaml
# Snippet of the PodSpec
containers:
- name: container-name
image: container-image:version
env:
- name: AWS_CONFIG_FILE
value: path-to-customer-provided-aws-config-file
- name: AWS_PROFILE
value: account_b_role
```
EKS Pod Identities와의 역할 체인을 위한 역할 신뢰 정책을 구성할 때 [EKS 특정 속성](https://docs.aws.amazon.com/eks/latest/userguide/pod-id-abac.html)을 세션 태그로 참조하고 속성 기반 액세스 제어(ABAC)를 사용하여 IAM 역할에 대한 액세스를 파드가 속한 쿠버네티스 서비스 계정과 같은 특정 EKS Pod ID 세션으로만 제한할 수 있습니다.
이러한 특성 중 일부는 보편적으로 고유하지 않을 수 있다는 점에 유의하십시오. 예를 들어 두 EKS 클러스터는 동일한 네임스페이스를 가질 수 있고 한 클러스터는 네임스페이스 전체에서 동일한 이름의 서비스 계정을 가질 수 있습니다. 따라서 EKS Pod Identities 및 ABAC를 통해 액세스 권한을 부여할 때는 서비스 계정에 대한 액세스 권한을 부여할 때 항상 클러스터 ARN과 네임스페이스를 고려하는 것이 좋습니다.
##### 교차 계정 액세스를 위한 ABAC 및 EKS Pod Identities
다중 계정 전략의 일환으로 EKS Pod ID를 사용하여 다른 계정에서 역할 (역할 체인) 을 맡는 경우, 다른 계정에 액세스해야 하는 각 서비스 계정에 고유한 IAM 역할을 할당하거나, 여러 서비스 계정에서 공통 IAM 역할을 사용하고 ABAC를 사용하여 액세스할 수 있는 계정을 제어할 수 있습니다.
ABAC를 사용하여 역할 체인을 통해 다른 계정에 역할을 수임할 수 있는 서비스 계정을 제어하려면 예상 값이 있을 때만 역할 세션에서 역할을 수임하도록 허용하는 역할 신뢰 정책 설명을 생성해야 합니다. 다음 역할 신뢰 정책은 `kubernetes-service-account`, `eks-cluster-arn` 및 `kubernetes-namespace` 태그가 모두 기대되는 값을 갖는 경우에만 EKS 클러스터 계정 (계정 ID 111122223333) 의 역할이 역할을 수임할 수 있습니다.
```json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"AWS": "arn:aws:iam::111122223333:root"
},
"Action": "sts:AssumeRole",
"Condition": {
"StringEquals": {
"aws:PrincipalTag/kubernetes-service-account": "PayrollApplication",
"aws:PrincipalTag/eks-cluster-arn": "arn:aws:eks:us-east-1:111122223333:cluster/ProductionCluster",
"aws:PrincipalTag/kubernetes-namespace": "PayrollNamespace"
}
}
}
]
}
```
이 전략을 사용할 때는 공통 IAM 역할에 `STS:assumeRole` 권한만 있고 다른 AWS 액세스는 허용하지 않는 것이 가장 좋습니다.
ABAC를 사용할 때는 IAM 역할과 사용자를 꼭 필요한 사람에게만 태그할 수 있는 권한을 가진 사람을 제어하는 것이 중요합니다. IAM 역할 또는 사용자에 태그를 지정할 수 있는 사람은 EKS Pod Identities에서 설정하는 것과 동일한 태그를 역할/사용자에 설정할 수 있으며 권한을 에스컬레이션할 수 있습니다. IAM 정책 또는 서비스 제어 정책(SCP)을 사용하여 IAM 역할 및 사용자에게 `kubernetes-` 및 `eks-` 태그를 설정할 수 있는 액세스 권한을 가진 사용자를 제한할 수 있습니다.
## 분산형 EKS 클러스터
이 접근 방식에서는 EKS 클러스터가 각 워크로드 AWS 계정에 배포되고 Amazon S3 버킷, VPC, Amazon DynamoDB 테이블 등과 같은 다른 AWS 리소스와 함께 사용됩니다. 각 워크로드 계정은 독립적이고 자급자족하며 각 사업부/애플리케이션 팀에서 운영합니다. 이 모델을 사용하면 다양한 클러스터 기능 (AI/ML 클러스터, 배치 처리, 범용 등) 에 대한 재사용 가능한 블루프린트를 생성하고 애플리케이션 팀 요구 사항에 따라 클러스터를 판매할 수 있습니다. 애플리케이션 팀과 플랫폼 팀 모두 각각의 [GitOps](https://www.weave.works/technologies/gitops/) 리포지토리에서 작업하여 워크로드 클러스터로의 배포를 관리합니다.
|![De-centralized EKS Cluster Architecture](./images/multi-account-eks-decentralized.png)|
|:--:|
| 위 다이어그램에서 Amazon EKS 클러스터 및 기타 AWS 리소스는 각 워크로드 계정에 배포됩니다. 그런 다음 EKS 파드에서 실행되는 워크로드는 IRSA 또는 EKS Pod Identities를 사용하여 AWS 리소스에 액세스합니다. |
GitOps는 전체 시스템이 Git 리포지토리에 선언적으로 설명되도록 애플리케이션 및 인프라 배포를 관리하는 방법입니다. 버전 제어, 변경 불가능한 아티팩트 및 자동화의 모범 사례를 사용하여 여러 Kubernetes 클러스터의 상태를 관리할 수 있는 운영 모델입니다. 이 다중 클러스터 모델에서는 각 워크로드 클러스터가 여러 Git 저장소로 부트스트랩되어 각 팀(애플리케이션, 플랫폼, 보안 등)이 클러스터에 각각의 변경 사항을 배포할 수 있습니다.
각 계정에서 [IAM roles for Service Accounts (IRSA)](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html) 또는 [EKS Pod Identities](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html)를 활용하여 EKS 워크로드가 다른 AWS 리소스에 안전하게 액세스할 수 있는 임시 AWS 자격 증명을 얻을 수 있도록 할 수 있습니다. IAM 역할은 각 워크로드 AWS 계정에서 생성되며 이를 k8s 서비스 계정에 매핑하여 임시 IAM 액세스를 제공합니다. 따라서 이 접근 방식에서는 계정 간 액세스가 필요하지 않습니다. IRSA의 각 워크로드에서 설정하는 방법에 대한 [IAM roles for Service Accounts](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html) 설명서와 각 계정에서 EKS Pod Identities를 설정하는 방법에 대한 [EKS Pod Identities](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html) 문서를 참조하십시오.
### 중앙 집중된 네트워킹
또한 AWS RAM을 활용하여 VPC 서브넷을 워크로드 계정과 공유하고 이 계정에서 Amazon EKS 클러스터 및 기타 AWS 리소스를 시작할 수 있습니다. 이를 통해 중앙 집중식 네트워크 관리/관리, 간소화된 네트워크 연결, 탈중앙화된 EKS 클러스터가 가능합니다. 이 접근 방식에 대한 자세한 설명과 고려 사항은 [AWS 블로그](https://aws.amazon.com/blogs/containers/use-shared-vpcs-in-amazon-eks/)를 참조하십시오.
|![De-centralized EKS Cluster Architecture using VPC Shared Subnets](./images/multi-account-eks-shared-subnets.png)|
|:--:|
| 위 다이어그램에서 AWS RAM은 중앙 네트워킹 계정의 서브넷을 워크로드 계정으로 공유하는 데 사용됩니다. 그러면 EKS 클러스터 및 기타 AWS 리소스가 각 워크로드 계정의 해당 서브넷에서 시작됩니다. EKS 파드는 IRSA 또는 EKS Pod Identities를 사용하여 AWS 리소스에 액세스합니다. |
## 중앙화된 EKS 클러스터와 분산화된 EKS 클러스터
중앙 집중식 또는 분산형 중 어느 것을 사용할지는 요구 사항에 따라 달라집니다. 이 표는 각 전략의 주요 차이점을 보여줍니다.
|# |중앙화된 EKS 클러스터 | 분산화된 EKS 클러스터 |
|:--|:--|:--|
|클러스터 관리: |단일 EKS 클러스터를 관리하는 것이 여러 클러스터를 관리하는 것보다 쉽습니다. | 여러 EKS 클러스터를 관리하는 데 따른 운영 오버헤드를 줄이려면 효율적인 클러스터 관리 자동화가 필요합니다|
|비용 효율성: | EKS 클러스터 및 네트워크 리소스를 재사용할 수 있어 비용 효율성이 향상됩니다. | 워크로드당 네트워킹 및 클러스터 설정이 필요하므로 추가 리소스가 필요합니다|
|복원력: | 클러스터가 손상되면 중앙 집중식 클러스터의 여러 워크로드가 영향을 받을 수 있습니다. | 클러스터가 손상되면 손상은 해당 클러스터에서 실행되는 워크로드로만 제한됩니다. 다른 모든 워크로드는 영향을 받지 않습니다. |
|격리 및 보안: |격리/소프트 멀티테넌시는 '네임스페이스'와 같은 k8의 기본 구조를 사용하여 구현됩니다. 워크로드는 CPU, 메모리 등과 같은 기본 리소스를 공유할 수 있습니다. AWS 리소스는 기본적으로 다른 AWS 계정에서 액세스할 수 없는 자체 워크로드 계정으로 격리됩니다.|리소스를 공유하지 않는 개별 클러스터 및 노드에서 워크로드가 실행되므로 컴퓨팅 리소스의 격리가 강화됩니다. AWS 리소스는 기본적으로 다른 AWS 계정에서 액세스할 수 없는 자체 워크로드 계정으로 격리됩니다.|
|성능 및 확장성: |워크로드가 매우 큰 규모로 성장함에 따라 클러스터 계정에서 kubernetes 및 AWS 서비스 할당량이 발생할 수 있습니다. 클러스터 계정을 추가로 배포하여 더 확장할 수 있습니다|클러스터와 VPC가 많아질수록 각 워크로드의 사용 가능한 k8과 AWS 서비스 할당량이 많아집니다|
|네트워킹: | 클러스터당 단일 VPC가 사용되므로 해당 클러스터의 애플리케이션을 더 간단하게 연결할 수 있습니다. | 분산되지 않은 EKS 클러스터 VPC 간에 라우팅을 설정해야 합니다. |
|쿠버네티스 액세스 관리: |모든 워크로드 팀에 액세스를 제공하고 쿠버네티스 리소스가 적절하게 분리되도록 클러스터에서 다양한 역할과 사용자를 유지해야 합니다.| 각 클러스터가 워크로드/팀 전용으로 사용되므로 액세스 관리가 간소화됩니다. |
|AWS 액세스 관리: |AWS 리소스는 기본적으로 워크로드 계정의 IAM 역할을 통해서만 액세스할 수 있는 자체 계정에 배포됩니다. 워크로드 계정의 IAM 역할은 IRSA 또는 EKS Pod Identities와의 교차 계정으로 간주됩니다.|AWS 리소스는 기본적으로 워크로드 계정의 IAM 역할을 통해서만 액세스할 수 있는 자체 계정에 배포됩니다. 워크로드 계정의 IAM 역할은 IRSA 또는 EKS Pod Identities를 사용하여 파드에 직접 전달됩니다. | | eks | search exclude true AWS https docs aws amazon com whitepapers latest organizing your aws environment organizing your aws environment html AWS https docs aws amazon com whitepapers latest organizing your aws environment benefits of using multiple aws accounts html AWS API AWS IAM AWS IAM AWS AWS https docs aws amazon com whitepapers latest organizing your aws environment benefits of using multiple aws accounts html group workloads based on business purpose and ownership EKS EKS AWS S3 ElastiCache DynamoDB AWS EKS AWS https docs aws amazon com whitepapers latest organizing your aws environment organizing workload oriented ous html EKS EKS EKS AWS IAM roles for Service Accounts IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html EKS Pod Identitiesentities https docs aws amazon com eks latest userguide pod identities html AWS AWS Resource Access Manager RAM https aws amazon com ram EKS VPC EKS EC2 Fargate EKS AWS https kubernetes io docs concepts overview working with objects namespaces EKS EKS security docs multitenancy AWS AWS images multi account eks jpg AWS RAM EKS IRSA EKS Pod Identitiesentities AWS AWS AWS Resource Access Manager https aws amazon com ram RAM AWS AWS RAM https docs aws amazon com ram latest userguide getting started sharing html getting started sharing orgs VPC Amazon ElastiCache https aws amazon com elasticache Amazon Relational Database Service RDS https aws amazon com rds AWS EKS VPC EKS RAM AWS RAM 12 ID Create resource share IaC RAM EKS Pod Identitiesentities IRSA re Invent 2023 AWS EKS AWS EKS Pod Identitiesentities IRSA EKS EKS AWS EKS AWS IRSA EKS AWS EKS Pod Identities EKS https docs aws amazon com eks latest userguide service accounts html service accounts iam IRSA IAM Roles for Service Accounts AWS API IAM Roles for Service Accounts IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html EKS AWS IRSA IAM EKS S3 AWS API Amazon RDS Amazon EFS File Systems IAM IAM AWS API IAM IRSA IRSA IAM OIDC ID IRSA ID https docs aws amazon com eks latest userguide enable iam roles for service accounts html EKS IRSA https docs aws amazon com eks latest userguide associate service account role html ID 12 ID https docs aws amazon com eks latest userguide cross account access html EKS EKS Pod Identities AWS API EKS Pod Identities https docs aws amazon com eks latest userguide pod identities html EKS AWS EKS Pod Identities EKS AWS OIDC AWS EKS Pod Identities IRSA EKS Pod Identities EKS AWS EKS Pod Identities https docs aws amazon com IAM latest UserGuide id roles terms and concepts html iam term role chaining AWS SDK https docs aws amazon com sdkref latest guide feature process credentials html aws credentials process Content of the AWS Config file profile account b role source profile account a role role arn arn aws iam 444455556666 role account b role profile account a role credential process eks credential processrole sh credential process bin bash Content of the eks credential processrole sh This will retreive the credential from the pod identities agent and return it to the AWS SDK when referenced in a profile curl H Authorization cat AWS CONTAINER AUTHORIZATION TOKEN FILE AWS CONTAINER CREDENTIALS FULL URI jq c AccessKeyId AccessKeyId SecretAccessKey SecretAccessKey SessionToken Token Expiration Expiration Version 1 A B aws AWS CONFIG FILE AWS PROFILE EKS yaml Snippet of the PodSpec containers name container name image container image version env name AWS CONFIG FILE value path to customer provided aws config file name AWS PROFILE value account b role EKS Pod Identities EKS https docs aws amazon com eks latest userguide pod id abac html ABAC IAM EKS Pod ID EKS EKS Pod Identities ABAC ARN ABAC EKS Pod Identities EKS Pod ID IAM IAM ABAC ABAC kubernetes service account eks cluster arn kubernetes namespace EKS ID 111122223333 json Version 2012 10 17 Statement Effect Allow Principal AWS arn aws iam 111122223333 root Action sts AssumeRole Condition StringEquals aws PrincipalTag kubernetes service account PayrollApplication aws PrincipalTag eks cluster arn arn aws eks us east 1 111122223333 cluster ProductionCluster aws PrincipalTag kubernetes namespace PayrollNamespace IAM STS assumeRole AWS ABAC IAM IAM EKS Pod Identities IAM SCP IAM kubernetes eks EKS EKS AWS Amazon S3 VPC Amazon DynamoDB AWS AI ML GitOps https www weave works technologies gitops De centralized EKS Cluster Architecture images multi account eks decentralized png Amazon EKS AWS EKS IRSA EKS Pod Identities AWS GitOps Git Kubernetes Git IAM roles for Service Accounts IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html EKS Pod Identities https docs aws amazon com eks latest userguide pod identities html EKS AWS AWS IAM AWS k8s IAM IRSA IAM roles for Service Accounts https docs aws amazon com eks latest userguide iam roles for service accounts html EKS Pod Identities EKS Pod Identities https docs aws amazon com eks latest userguide pod identities html AWS RAM VPC Amazon EKS AWS EKS AWS https aws amazon com blogs containers use shared vpcs in amazon eks De centralized EKS Cluster Architecture using VPC Shared Subnets images multi account eks shared subnets png AWS RAM EKS AWS EKS IRSA EKS Pod Identities AWS EKS EKS EKS EKS EKS EKS EKS k8 CPU AWS AWS AWS AWS kubernetes AWS VPC k8 AWS VPC EKS VPC AWS AWS IAM IAM IRSA EKS Pod Identities AWS IAM IAM IRSA EKS Pod Identities |
eks RCA EKS Amazon Cloudwatch EKS search exclude true Audit | ---
search:
exclude: true
---
# 감사(Audit) 및 로깅
\[감사\] 로그를 수집하고 분석하는 것은 여러 가지 이유로 유용합니다. 로그는 근본 원인 분석(RCA) 및 책임 분석(예: 특정 변경에 대한 사용자 추적)에 도움이 될 수 있습니다. 로그가 충분히 수집되면 이를 사용하여 이상 행동을 탐지할 수도 있습니다. EKS에서는 감사 로그가 Amazon Cloudwatch 로그로 전송됩니다. EKS의 감사 정책은 다음과 같습니다.
```yaml
apiVersion: audit.k8s.io/v1beta1
kind: Policy
rules:
# Log aws-auth configmap changes
- level: RequestResponse
namespaces: ["kube-system"]
verbs: ["update", "patch", "delete"]
resources:
- group: "" # core
resources: ["configmaps"]
resourceNames: ["aws-auth"]
omitStages:
- "RequestReceived"
- level: None
users: ["system:kube-proxy"]
verbs: ["watch"]
resources:
- group: "" # core
resources: ["endpoints", "services", "services/status"]
- level: None
users: ["kubelet"] # legacy kubelet identity
verbs: ["get"]
resources:
- group: "" # core
resources: ["nodes", "nodes/status"]
- level: None
userGroups: ["system:nodes"]
verbs: ["get"]
resources:
- group: "" # core
resources: ["nodes", "nodes/status"]
- level: None
users:
- system:kube-controller-manager
- system:kube-scheduler
- system:serviceaccount:kube-system:endpoint-controller
verbs: ["get", "update"]
namespaces: ["kube-system"]
resources:
- group: "" # core
resources: ["endpoints"]
- level: None
users: ["system:apiserver"]
verbs: ["get"]
resources:
- group: "" # core
resources: ["namespaces", "namespaces/status", "namespaces/finalize"]
- level: None
users:
- system:kube-controller-manager
verbs: ["get", "list"]
resources:
- group: "metrics.k8s.io"
- level: None
nonResourceURLs:
- /healthz*
- /version
- /swagger*
- level: None
resources:
- group: "" # core
resources: ["events"]
- level: Request
users: ["kubelet", "system:node-problem-detector", "system:serviceaccount:kube-system:node-problem-detector"]
verbs: ["update","patch"]
resources:
- group: "" # core
resources: ["nodes/status", "pods/status"]
omitStages:
- "RequestReceived"
- level: Request
userGroups: ["system:nodes"]
verbs: ["update","patch"]
resources:
- group: "" # core
resources: ["nodes/status", "pods/status"]
omitStages:
- "RequestReceived"
- level: Request
users: ["system:serviceaccount:kube-system:namespace-controller"]
verbs: ["deletecollection"]
omitStages:
- "RequestReceived"
# Secrets, ConfigMaps, and TokenReviews can contain sensitive & binary data,
# so only log at the Metadata level.
- level: Metadata
resources:
- group: "" # core
resources: ["secrets", "configmaps"]
- group: authentication.k8s.io
resources: ["tokenreviews"]
omitStages:
- "RequestReceived"
- level: Request
resources:
- group: ""
resources: ["serviceaccounts/token"]
- level: Request
verbs: ["get", "list", "watch"]
resources:
- group: "" # core
- group: "admissionregistration.k8s.io"
- group: "apiextensions.k8s.io"
- group: "apiregistration.k8s.io"
- group: "apps"
- group: "authentication.k8s.io"
- group: "authorization.k8s.io"
- group: "autoscaling"
- group: "batch"
- group: "certificates.k8s.io"
- group: "extensions"
- group: "metrics.k8s.io"
- group: "networking.k8s.io"
- group: "policy"
- group: "rbac.authorization.k8s.io"
- group: "scheduling.k8s.io"
- group: "settings.k8s.io"
- group: "storage.k8s.io"
omitStages:
- "RequestReceived"
# Default level for known APIs
- level: RequestResponse
resources:
- group: "" # core
- group: "admissionregistration.k8s.io"
- group: "apiextensions.k8s.io"
- group: "apiregistration.k8s.io"
- group: "apps"
- group: "authentication.k8s.io"
- group: "authorization.k8s.io"
- group: "autoscaling"
- group: "batch"
- group: "certificates.k8s.io"
- group: "extensions"
- group: "metrics.k8s.io"
- group: "networking.k8s.io"
- group: "policy"
- group: "rbac.authorization.k8s.io"
- group: "scheduling.k8s.io"
- group: "settings.k8s.io"
- group: "storage.k8s.io"
omitStages:
- "RequestReceived"
# Default level for all other requests.
- level: Metadata
omitStages:
- "RequestReceived"
```
## 권장 사항
### 감사 로그 활성화
감사 로그는 EKS에서 관리하는 EKS 관리형 쿠버네티스 컨트롤 플레인 로그의 일부입니다. 쿠버네티스 API 서버, 컨트롤러 관리자 및 스케줄러에 대한 로그와 감사 로그를 포함하는 컨트롤 플레인 로그의 활성화/비활성화 지침은 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html#enabling-control-plane-log-export)에서 확인할 수 있습니다.
!!! info
컨트롤 플레인 로깅을 활성화하면 로그를 CloudWatch에 저장하는 데 [비용](https://aws.amazon.com/cloudwatch/pricing/)이 발생합니다. 이로 인해 지속적인 보안 비용에 대한 광범위한 문제가 제기됩니다. 궁극적으로 이런 비용을 보안 침해 비용 (예: 재정적 손실, 평판 훼손 등)과 비교해야 합니다. 이 가이드의 권장 사항 중 일부만 구현하면 환경을 적절하게 보호할 수 있을 것입니다.
!!! warning
클라우드워치 로그 항목의 최대 크기는 [256KB](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/cloudwatch_limits_cwl.html)인 반면 쿠버네티스 API 요청 최대 크기는 1.5MiB입니다. 256KB를 초과하는 로그 항목은 잘리거나 요청 메타데이터만 포함됩니다.
### 감사 메타데이터 활용
쿠버네티스 감사 로그에는 요청이 승인되었는지 여부를 나타내는 `authorization.k8s.io/decision`와 결정의 이유를 나타내는 `authorization.k8s.io/reason`, 두 개의 어노테이션이 포함되어 있습니다. 이런 속성을 사용하여 특정 API 호출이 허용된 이유를 확인할 수 있습니다.
### 의심스러운 이벤트에 대한 알람 생성
403 Forbidden 및 401 Unauthorized 응답이 증가하는 위치를 자동으로 알리는 경보를 생성한 다음 `host` , `sourceIPs` 및 `k8s_user.username` 과 같은 속성을 사용 하여 이런 요청의 출처를 찾아냅니다.
### Log Insights로 로그 분석
CloudWatch Log Insights를 사용하여 RBAC 객체 (예: 롤, 롤바인딩, 클러스터롤, 클러스터 롤바인딩) 에 대한 변경 사항을 모니터링할 수 있습니다. 몇 가지 샘플 쿼리는 다음과 같습니다.
`aws-auth` 컨피그맵 에 대한 업데이트를 나열합니다:
```bash
fields @timestamp, @message
| filter @logStream like "kube-apiserver-audit"
| filter verb in ["update", "patch"]
| filter objectRef.resource = "configmaps" and objectRef.name = "aws-auth" and objectRef.namespace = "kube-system"
| sort @timestamp desc
```
Validation 웹훅에 대한 생성 또는 변경 사항을 나열합니다:
```bash
fields @timestamp, @message
| filter @logStream like "kube-apiserver-audit"
| filter verb in ["create", "update", "patch"] and responseStatus.code = 201
| filter objectRef.resource = "validatingwebhookconfigurations"
| sort @timestamp desc
```
롤에 대한 생성, 업데이트, 삭제 작업을 나열합니다:
```bash
fields @timestamp, @message
| sort @timestamp desc
| limit 100
| filter objectRef.resource="roles" and verb in ["create", "update", "patch", "delete"]
```
롤바인딩에 대한 생성, 업데이트, 삭제 작업을 나열합니다:
```bash
fields @timestamp, @message
| sort @timestamp desc
| limit 100
| filter objectRef.resource="rolebindings" and verb in ["create", "update", "patch", "delete"]
```
클러스터롤에 대한 생성, 업데이트, 삭제 작업을 나열합니다:
```bash
fields @timestamp, @message
| sort @timestamp desc
| limit 100
| filter objectRef.resource="clusterroles" and verb in ["create", "update", "patch", "delete"]
```
클러스터롤바인딩에 대한 생성, 업데이트, 삭제 작업을 나열합니다:
```bash
fields @timestamp, @message
| sort @timestamp desc
| limit 100
| filter objectRef.resource="clusterrolebindings" and verb in ["create", "update", "patch", "delete"]
```
시크릿에 대한 무단 읽기 작업을 표시합니다:
```bash
fields @timestamp, @message
| sort @timestamp desc
| limit 100
| filter objectRef.resource="secrets" and verb in ["get", "watch", "list"] and responseStatus.code="401"
| stats count() by bin(1m)
```
실패한 익명 요청 목록:
```bash
fields @timestamp, @message, sourceIPs.0
| sort @timestamp desc
| limit 100
| filter user.username="system:anonymous" and responseStatus.code in ["401", "403"]
```
### CloudTrail 로그 감사
IAM Roles for Service Account(IRSA)을 활용하는 파드에서 호출한 AWS API는 서비스 어카운트 이름과 함께 CloudTrail에 자동으로 로깅됩니다. API 호출 권한이 명시적으로 부여되지 않은 서비스 어카운트의 이름이 로그에 표시되면 IAM 역할의 신뢰 정책이 잘못 구성되었다는 표시일 수 있습니다. 일반적으로 Cloudtrail은 AWS API 호출을 특정 IAM 보안 주체에 할당할 수 있는 좋은 방법입니다.
### CloudTrail Insights를 사용하여 의심스러운 활동 발견
CloudTrail Insights는 CloudTrail 트레일에서 쓰기 관리 이벤트를 자동으로 분석하고 비정상적인 활동이 발생하면 알려줍니다. 이를 통해 IRSA 기능을 사용하여 IAM 역할을 맡는 파드 등 AWS 계정의 쓰기 API에 대한 호출량이 증가하는 시기를 파악할 수 있습니다. 자세한 내용은 [CloudTrail Insights 발표: 비정상적인 API 활동 식별 및 대응](https://aws.amazon.com/blogs/aws/announcing-cloudtrail-insights-identify-and-respond-to-unusual-api-activity/)을 참조하십시오.
### 추가 리소스
로그의 양이 증가하면 Log Insights 또는 다른 로그 분석 도구를 사용하여 로그를 파싱하고 필터링하는 것이 비효율적일 수 있습니다. 대안으로 [Sysdig Falco](https://github.com/falcosecurity/falco)와 [ekscloudwatch](https://github.com/sysdiglabs/ekscloudwatch)를 실행하는 것도 고려해 볼 수 있습니다. Falco는 감사 로그를 분석하고 오랜 기간 동안 이상 징후나 악용에 대해 플래그를 지정합니다. ekscloudwatch 프로젝트는 분석을 위해 CloudWatch의 감사 로그 이벤트를 팔코로 전달합니다. 팔코는 일련의 [기본 감사 규칙](https://github.com/falcosecurity/plugins/blob/master/plugins/k8saudit/rules/k8s_audit_rules.yaml)과 함께 자체 감사 규칙을 추가할 수 있는 기능을 제공합니다.
또 다른 옵션은 감사 로그를 S3에 저장하고 SageMaker [Random Cut Forest](https://docs.aws.amazon.com/sagemaker/latest/dg/randomcutforest.html) 알고리즘을 사용하여 추가 조사가 필요한 이상 동작에 사용하는 것일 수 있습니다.
## 도구 및 리소스
다음 상용 및 오픈 소스 프로젝트를 사용하여 클러스터가 확립된 모범 사례와 일치하는지 평가할 수 있습니다.
- [kubeaudit](https://github.com/Shopify/kubeaudit)
- [kube-scan](https://github.com/octarinesec/kube-scan) 쿠버네티스 공통 구성 점수 산정 시스템 프레임워크에 따라 클러스터에서 실행 중인 워크로드에 위험 점수를 할당합니다.
- [kubesec.io](https://kubesec.io/)
- [polaris](https://github.com/FairwindsOps/polaris)
- [Starboard](https://github.com/aquasecurity/starboard)
- [Snyk](https://support.snyk.io/hc/en-us/articles/360003916138-Kubernetes-integration-overview)
- [Kubescape](https://github.com/kubescape/kubescape) Kubescape는 클러스터, YAML 파일 및 헬름 차트를 스캔하는 오픈 소스 쿠버네티스 보안 도구입니다. 여러 프레임워크 ([NSA-CISA](https://www.armosec.io/blog/kubernetes-hardening-guidance-summary-by-armo/?utm_source=github&utm_medium=repository) 및 [MITRE ATT&CK®](https://www.microsoft.com/security/blog/2021/03/23/secure-containerized-environments-with-updated-threat-matrix-for-kubernetes/))에 따라 설정 오류를 탐지합니다. | eks | search exclude true Audit RCA EKS Amazon Cloudwatch EKS yaml apiVersion audit k8s io v1beta1 kind Policy rules Log aws auth configmap changes level RequestResponse namespaces kube system verbs update patch delete resources group core resources configmaps resourceNames aws auth omitStages RequestReceived level None users system kube proxy verbs watch resources group core resources endpoints services services status level None users kubelet legacy kubelet identity verbs get resources group core resources nodes nodes status level None userGroups system nodes verbs get resources group core resources nodes nodes status level None users system kube controller manager system kube scheduler system serviceaccount kube system endpoint controller verbs get update namespaces kube system resources group core resources endpoints level None users system apiserver verbs get resources group core resources namespaces namespaces status namespaces finalize level None users system kube controller manager verbs get list resources group metrics k8s io level None nonResourceURLs healthz version swagger level None resources group core resources events level Request users kubelet system node problem detector system serviceaccount kube system node problem detector verbs update patch resources group core resources nodes status pods status omitStages RequestReceived level Request userGroups system nodes verbs update patch resources group core resources nodes status pods status omitStages RequestReceived level Request users system serviceaccount kube system namespace controller verbs deletecollection omitStages RequestReceived Secrets ConfigMaps and TokenReviews can contain sensitive binary data so only log at the Metadata level level Metadata resources group core resources secrets configmaps group authentication k8s io resources tokenreviews omitStages RequestReceived level Request resources group resources serviceaccounts token level Request verbs get list watch resources group core group admissionregistration k8s io group apiextensions k8s io group apiregistration k8s io group apps group authentication k8s io group authorization k8s io group autoscaling group batch group certificates k8s io group extensions group metrics k8s io group networking k8s io group policy group rbac authorization k8s io group scheduling k8s io group settings k8s io group storage k8s io omitStages RequestReceived Default level for known APIs level RequestResponse resources group core group admissionregistration k8s io group apiextensions k8s io group apiregistration k8s io group apps group authentication k8s io group authorization k8s io group autoscaling group batch group certificates k8s io group extensions group metrics k8s io group networking k8s io group policy group rbac authorization k8s io group scheduling k8s io group settings k8s io group storage k8s io omitStages RequestReceived Default level for all other requests level Metadata omitStages RequestReceived EKS EKS API AWS https docs aws amazon com eks latest userguide control plane logs html enabling control plane log export info CloudWatch https aws amazon com cloudwatch pricing warning 256KB https docs aws amazon com AmazonCloudWatch latest logs cloudwatch limits cwl html API 1 5MiB 256KB authorization k8s io decision authorization k8s io reason API 403 Forbidden 401 Unauthorized host sourceIPs k8s user username Log Insights CloudWatch Log Insights RBAC aws auth bash fields timestamp message filter logStream like kube apiserver audit filter verb in update patch filter objectRef resource configmaps and objectRef name aws auth and objectRef namespace kube system sort timestamp desc Validation bash fields timestamp message filter logStream like kube apiserver audit filter verb in create update patch and responseStatus code 201 filter objectRef resource validatingwebhookconfigurations sort timestamp desc bash fields timestamp message sort timestamp desc limit 100 filter objectRef resource roles and verb in create update patch delete bash fields timestamp message sort timestamp desc limit 100 filter objectRef resource rolebindings and verb in create update patch delete bash fields timestamp message sort timestamp desc limit 100 filter objectRef resource clusterroles and verb in create update patch delete bash fields timestamp message sort timestamp desc limit 100 filter objectRef resource clusterrolebindings and verb in create update patch delete bash fields timestamp message sort timestamp desc limit 100 filter objectRef resource secrets and verb in get watch list and responseStatus code 401 stats count by bin 1m bash fields timestamp message sourceIPs 0 sort timestamp desc limit 100 filter user username system anonymous and responseStatus code in 401 403 CloudTrail IAM Roles for Service Account IRSA AWS API CloudTrail API IAM Cloudtrail AWS API IAM CloudTrail Insights CloudTrail Insights CloudTrail IRSA IAM AWS API CloudTrail Insights API https aws amazon com blogs aws announcing cloudtrail insights identify and respond to unusual api activity Log Insights Sysdig Falco https github com falcosecurity falco ekscloudwatch https github com sysdiglabs ekscloudwatch Falco ekscloudwatch CloudWatch https github com falcosecurity plugins blob master plugins k8saudit rules k8s audit rules yaml S3 SageMaker Random Cut Forest https docs aws amazon com sagemaker latest dg randomcutforest html kubeaudit https github com Shopify kubeaudit kube scan https github com octarinesec kube scan kubesec io https kubesec io polaris https github com FairwindsOps polaris Starboard https github com aquasecurity starboard Snyk https support snyk io hc en us articles 360003916138 Kubernetes integration overview Kubescape https github com kubescape kubescape Kubescape YAML NSA CISA https www armosec io blog kubernetes hardening guidance summary by armo utm source github utm medium repository MITRE ATT CK https www microsoft com security blog 2021 03 23 secure containerized environments with updated threat matrix for kubernetes |
eks exclude true CPU search | ---
search:
exclude: true
---
# 비용 최적화 - 컴퓨팅 및 오토스케일링
개발자는 애플리케이션의 리소스 요구 사항(예: CPU 및 메모리)을 초기 예상하지만 이런 리소스 스펙을 지속적으로 조정하지 않으면 비용이 증가하고 성능 및 안정성이 저하될 수 있습니다. 초기에 정확한 예측값을 얻는 것보다 애플리케이션의 리소스 요구 사항을 지속적으로 조정하는 것이 더 중요합니다.
아래에 언급된 모범 사례는 비용을 최소화하고 조직이 투자 수익을 극대화할 수 있도록 하는 동시에 비즈니스 성과를 달성하는 비용 인지형 워크로드를 구축하고 운영하는 데 도움이 됩니다. 클러스터 컴퓨팅 비용을 최적화하는 데 있어 가장 중요한 순서는 다음과 같습니다:
1. 워크로드 규모 조정(Right-sizing)
2. 사용되지 않는 용량 줄이기
3. 컴퓨팅 유형(예: 스팟) 및 가속기(예: GPU) 최적화
## 워크로드 규모 조정(Right-sizing)
대부분의 EKS 클러스터에서 대부분의 비용은 컨테이너식 워크로드를 실행하는 데 사용되는 EC2 인스턴스에서 발생합니다. 워크로드 요구 사항을 이해하지 않고는 컴퓨팅 리소스의 크기를 적절하게 조정할 수 없습니다. 따라서 적절한 요청(request) 및 제한(limit)을 사용하고 필요에 따라 해당 설정을 조정해야 합니다. 또한 인스턴스 크기 및 스토리지 선택과 같은 종속성이 워크로드 성능에 영향을 미쳐 비용과 안정성에 의도하지 않은 다양한 결과를 초래할 수 있습니다.
*request*는 실제 사용률과 일치해야 합니다. 컨테이너의 request가 너무 크면 사용되지 않은 용량이 발생하여 총 클러스터 비용의 큰 부분을 차지합니다. 파드 내 각 컨테이너 (예: 애플리케이션 및 사이드카) 에는 총 파드 한도가 최대한 정확하도록 자체 request 및 limit을 설정해야 합니다.
컨테이너에 대한 리소스 요청 및 한도를 추정하는 [Goldilocks](https://www.youtube.com/watch?v=DfmQWYiwFDk), [KRR](https://www.youtube.com/watch?v=uITOzpf82RY), [Kubecost](https://aws.amazon.com/blogs/containers/aws-and-kubecost-collaborate-to-deliver-cost-monitoring-for-eks-customers/)와 같은 도구를 활용하세요. 애플리케이션의 특성, 성능/비용 요구 사항 및 복잡성에 따라 어떤 메트릭을 확장하는 것이 가장 좋은지, 애플리케이션 성능이 저하되는 시점 (포화 시점), 그리고 그에 따라 요청 및 제한을 조정하는 방법을 평가해야 합니다. 이 주제에 대한 자세한 지침은 [애플리케이션 적정 크기 조정](https://aws.github.io/aws-eks-best-practices/scalability/docs/node_efficiency/#application-right-sizing)을 참조하십시오.
Horizontal Pod Autoscaler(HPA)를 사용하여 실행해야 하는 애플리케이션 복제본 수를 제어하고, Vertical Pod Autoscaler(VPA)를 사용하여 복제본 당 애플리케이션에 필요한 요청 수와 제한을 조정하고, [Karpenter](http://karpenter.sh/) 또는 [Cluster Autoscaler](https://github.com/kubernetes/autoscaler)와 같은 노드 오토스케일링을 사용하여 클러스터의 총 노드 수를 지속적으로 조정하는 것이 좋습니다. Karpenter 및 Cluster Autoscaler를 사용한 비용 최적화 기법은 이 문서의 뒷부분에 설명되어 있습니다.
VPA는 워크로드가 최적으로 실행되도록 컨테이너에 할당된 요청 및 제한을 조정할 수 있습니다. VPA를 감사 모드에서 실행하여 자동으로 변경한 후 파드를 다시 시작하지 않도록 해야 합니다. 관찰된 메트릭을 기반으로 변경 사항을 제안합니다. 프로덕션 워크로드에 영향을 미치는 변경 사항은 애플리케이션의 안정성과 성능에 영향을 미칠 수 있으므로 비프로덕션 환경에서 먼저 해당 변경 사항을 검토하고 테스트해야 합니다.
## 소비 감소
비용을 절감하는 가장 좋은 방법은 리소스를 적게 프로비저닝하는 것입니다.이를 위한 한 가지 방법은 현재 요구 사항에 따라 워크로드를 조정하는 것입니다. 워크로드가 요구 사항을 정의하고 동적으로 확장되도록 하는 것부터 비용 최적화 노력을 시작해야 합니다. 이를 위해서는 애플리케이션에서 메트릭을 가져오고 [`PodDisruptionBudgets`](https://kubernetes.io/docs/tasks/run-application/configure-pdb/) 및 [Pod Readiness Gates](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.5/deploy/pod_readiness_gate/)와 같은 구성을 설정하여 애플리케이션이 안전하게 동적으로 확장 및 축소할 수 있는지 확인해야 합니다.
HPA는 애플리케이션의 성능 및 안정성 요구 사항을 충족하는 데 필요한 복제본 수를 조정할 수 있는 유연한 워크로드 오토스케일러입니다. CPU, 메모리 또는 사용자 지정 메트릭 (예: 큐 깊이, 파드에 대한 연결 수 등) 과 같은 다양한 메트릭을 기반으로 확장 및 축소 시기를 정의할 수 있는 유연한 모델을 제공합니다.
쿠버네티스 메트릭 서버는 CPU 및 메모리 사용량과 같은 내장된 지표에 따라 크기를 조정할 수 있지만 Amazon CloudWatch 또는 SQS 대기열 깊이와 같은 다른 지표를 기반으로 확장하려면 [KEDA](https://keda.sh/)와 같은 이벤트 기반 자동 크기 조정 프로젝트를 고려해야 합니다. KEDA를 CloudWatch 지표와 함께 사용하는 방법에 대해서는 [이 블로그 게시물](https://aws.amazon.com/blogs/mt/proactive-autoscaling-of-kubernetes-workloads-with-keda-using-metrics-ingested-into-amazon-cloudwatch/)을 참조하십시오. 어떤 지표를 모니터링하고 규모를 조정해야 할지 잘 모르겠다면 [중요한 지표 모니터링에 대한 모범 사례](https://aws-observability.github.io/observability-best-practices/guides/#monitor-what-matters)를 확인하십시오.
워크로드 소비를 줄이면 클러스터에 초과 용량이 생성되며 적절한 자동 크기 조정 구성을 통해 노드를 자동으로 축소하여 총 지출을 줄일 수 있습니다. 컴퓨팅 파워를 수동으로 최적화하지 않는 것이 좋습니다. 쿠버네티스 스케줄러와 노드 오토스케일러는 이 프로세스를 처리하도록 설계되었습니다.
## 미사용 용량 줄이기
애플리케이션의 크기를 올바르게 결정하고 초과 요청을 줄인 후 프로비저닝된 컴퓨팅 파워를 줄일 수 있습니다. 위 섹션에서 시간을 들여 워크로드 크기를 올바르게 조정했다면 이 작업을 동적으로 수행할 수 있을 것입니다.AWS의 쿠버네티스와 함께 사용되는 기본 노드 자동 확장 프로그램은 두 가지입니다.
### Karpenter와 Cluster Autoscaler
Karpenter와 쿠버네티스 Cluster Autoscaler는 모두 파드가 생성되거나 제거되고 컴퓨팅 요구 사항이 변경됨에 따라 클러스터의 노드 수를 확장합니다. 둘 다 기본 목표는 같지만 Karpenter는 비용을 줄이고 클러스터 전체 사용을 최적화하는 데 도움이 되는 노드 관리 프로비저닝과 디프로비저닝에 대해 다른 접근 방식을 취합니다.
클러스터의 규모가 커지고 워크로드의 다양성이 증가함에 따라 노드 그룹과 인스턴스를 미리 구성하기가 더욱 어려워지고 있습니다.워크로드 요청과 마찬가지로 초기 기준을 설정하고 필요에 따라 지속적으로 조정하는 것이 중요합니다.
### Cluster Autoscaler Priority Expander
쿠버네티스 Cluster Autoscaler는 노드 그룹을 확장하거나 축소하는 방식으로 작동합니다. 워크로드를 동적으로 확장하지 않는 경우 클러스터 오토스케일러는 비용 절감에 도움이 되지 않습니다. Cluster Autoscaler를 사용하려면 클러스터 관리자가 워크로드 사용에 대비하여 노드 그룹을 미리 생성해야 합니다. 노드 그룹은 "프로파일"이 동일한 인스턴스, 즉 CPU와 메모리 양이 거의 같은 인스턴스를 사용하도록 구성해야 합니다.
노드 그룹을 여러 개 가질 수 있으며 우선 순위 조정 수준을 설정하도록 클러스터 오토스케일러를 구성할 수 있으며 각 노드 그룹은 서로 다른 크기의 노드를 포함할 수 있습니다.노드 그룹은 다양한 용량 유형을 가질 수 있으며 우선 순위 확장기를 사용하여 비용이 저렴한 그룹을 먼저 확장할 수 있습니다.
다음은 온디맨드 인스턴스를 사용하기 전에 '컨피그맵'을 사용하여 예약 용량의 우선 순위를 지정하는 클러스터 구성 스니펫의 예입니다. 동일한 기법을 사용하여 다른 유형보다 Graviton 또는 스팟 인스턴스의 우선 순위를 지정할 수 있습니다.
```yaml
apiVersion: eksctl.io/v1alpha5
kind: ClusterConfig
metadata:
name: my-cluster
managedNodeGroups:
- name: managed-ondemand
minSize: 1
maxSize: 7
instanceType: m5.xlarge
- name: managed-reserved
minSize: 2
maxSize: 10
instanceType: c5.2xlarge
```
```yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: cluster-autoscaler-priority-expander
namespace: kube-system
data:
priorities: |-
10:
- .*ondemand.*
50:
- .*reserved.*
```
노드 그룹을 사용하면 기본 컴퓨팅 리소스가 기본적으로 예상한 작업을 수행하는 데 도움이 될 수 있습니다(예: AZ 전체에 노드를 분산시키는 경우). 그러나 모든 워크로드의 요구 사항이나 기대치가 동일하지는 않으므로 애플리케이션이 요구 사항을 명시적으로 선언하도록 하는 것이 좋습니다. Cluster Autoscaler에 대한 자세한 내용은 [모범 사례 섹션](https://aws.github.io/aws-eks-best-practices/cluster-autoscaling/)을 참조하십시오.
### 스케줄 조정자
Cluster Autoscaler는 스케줄이 필요한 새 파드 또는 사용률이 낮은 노드를 기반으로 클러스터에서 노드 용량을 추가하고 제거할 수 있습니다. 노드에 스케줄링된 후에는 파드 배치를 전체적으로 살펴볼 수 없습니다. 클러스터 오토스케일러를 사용하는 경우 클러스터의 용량 낭비를 방지하기 위해 [Kubernetes descheduler](https://github.com/kubernetes-sigs/descheduler)도 살펴봐야 합니다.
클러스터에 10개의 노드가 있고 각 노드의 사용률이 60%라면 클러스터에서 프로비저닝된 용량의 40% 를 사용하지 않는 것입니다. 클러스터 오토스케일러를 사용하면 노드당 사용률 임계값을 60% 로 설정할 수 있지만, 이렇게 하면 사용률이 60% 미만으로 떨어진 후 단일 노드만 축소하려고 합니다.
Descheduler를 사용하면 파드가 스케줄링되거나 클러스터에 노드가 추가된 후 클러스터 용량 및 사용률을 확인할 수 있습니다. 클러스터의 총 용량을 지정된 임계값 이상으로 유지하려고 시도합니다. 또한 노드 테인트나 클러스터에 합류하는 새 노드를 기반으로 파드를 제거하여 파드가 최적의 컴퓨팅 환경에서 실행되도록 할 수 있습니다. 참고로 Descheduler는 제거된 파드의 교체를 스케줄링하지 않고 기본 스케줄러를 사용한다.
### Karpenter 통합 기능
Karpenter는 노드 관리에 대해 "그룹과 무관한(groupless)" 접근 방식을 취합니다. 이 접근 방식은 다양한 워크로드 유형에 더 유연하며 클러스터 관리자의 사전 구성이 덜 필요합니다. 그룹을 미리 정의하고 워크로드 필요에 따라 각 그룹을 조정하는 대신 Karpenter는 프로비저너와 노드 템플릿을 사용하여 생성할 수 있는 EC2 인스턴스 유형과 생성 시 인스턴스에 대한 설정을 광범위하게 정의합니다.
빈패킹(Bin Packing)은 더 적은 수의 최적 크기의 인스턴스에 더 많은 워크로드를 패킹하여 인스턴스의 리소스를 더 많이 활용하는 방법입니다. 이렇게 하면 워크로드에서 사용하는 리소스만 프로비저닝하여 컴퓨팅 비용을 줄이는 데 도움이 되지만 절충점이 있습니다. 특히 대규모 확장 이벤트의 경우 클러스터에 용량을 추가해야 하므로 새 워크로드를 시작하는 데 시간이 더 오래 걸릴 수 있습니다. 빈패킹을 설정할 때는 비용 최적화, 성능 및 가용성 간의 균형을 고려하십시오.
Karpenter는 지속적으로 모니터링하고 빈패킹하여 인스턴스 리소스 사용률을 높이고 컴퓨팅 비용을 낮출 수 있습니다. 또한 Karpenter는 워크로드에 대해 더 비용 효율적인 워커 노드를 선택할 수 있습니다. 프로비저닝 도구에서 "consolidation" 플래그를 true로 설정하면 이를 달성할 수 있습니다 (아래 샘플 코드 스니펫 참조). 아래 예제는 통합을 지원하는 프로비저닝 도구의 예를 보여줍니다. 이 안내서를 작성하는 시점에서 Karpenter는 실행 중인 스팟 인스턴스를 더 저렴한 스팟 인스턴스로 대체하지 않을 것입니다. Karpenter 통합에 대한 자세한 내용은 [이 블로그](https://aws.amazon.com/blogs/containers/optimizing-your-kubernetes-compute-costs-with-karpenter-consolidation/)를 참조하십시오.
```yaml
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: enable-binpacking
spec:
consolidation:
enabled: true
```
중단이 불가능할 수 있는 워크로드(예: 체크포인트 없이 장기간 실행되는 일괄 작업)의 경우, 파드에 `do-not-evict` 어노테이션을 달아 보세요. 파드를 제거에서 제외시키는 것은 Karpenter가 이 파드를 포함하는 노드를 자발적으로 제거해서는 안 된다고 말하는 것입니다. 하지만 노드가 드레이닝되는 동안 노드에 `do-not-evict` 파드가 추가되면 나머지 파드는 여전히 제거되지만 해당 파드는 제거될 때까지 종료를 차단합니다. 어느 경우든 노드에 추가 작업이 스케줄링되는 것을 방지하기 위해 노드는 cordon됩니다. 다음은 어노테이션을 설정하는 방법을 보여주는 예시입니다.
```yaml hl_lines="8"
apiVersion: v1
kind: Pod
metadata:
name: label-demo
labels:
environment: production
annotations:
"karpenter.sh/do-not-evict": "true"
spec:
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
```
### Cluster Autoscaler 파라미터를 조정하여 사용률이 낮은 노드를 제거합니다.
노드 사용률은 요청된 리소스의 합계를 용량으로 나눈 값으로 정의됩니다. 기본적으로 'scale-down-utilization-threshold'은 50% 로 설정됩니다. 이 파라미터는 'scale-down-unneeded-time'과 함께 사용할 수 있습니다. 이 시간은 노드를 축소할 수 있을 때까지 필요하지 않게 되는 기간을 결정합니다. 기본값은 10분입니다.축소된 노드에서 여전히 실행 중인 파드는 kube-scheduler에 의해 다른 노드에 스케줄링됩니다. 이러한 설정을 조정하면 활용도가 낮은 노드를 제거하는 데 도움이 될 수 있지만, 클러스터를 조기에 강제로 축소하지 않도록 먼저 이 값을 테스트하는 것이 중요합니다.
제거하는 데 비용이 많이 드는 파드를 클러스터 오토스케일러에서 인식하는 레이블로 보호함으로써 스케일 다운이 발생하지 않도록 할 수 있습니다. 이렇게 하려면 제거 비용이 많이 드는 파드에 `cluster-autoscaler.kubernetes.io/safe-to-evict=false`라는 주석을 달아야 한다. 다음은 어노테이션을 설정하는 yaml의 예시입니다.
```yaml hl_lines="8"
apiVersion: v1
kind: Pod
metadata:
name: label-demo
labels:
environment: production
annotations:
"cluster-autoscaler.kubernetes.io/safe-to-evict": "false"
spec:
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
```
### 노드에 Cluster Autoscaler 및 Karpenter 태그 지정
AWS [태그](https://docs.aws.amazon.com/tag-editor/latest/userguide/tagging.html)는 리소스를 구성하고 세부 수준에서 AWS 비용을 추적하는 데 사용됩니다. 비용 추적을 위한 Kubernetes 레이블과 직접적인 상관 관계를 맺지는 않습니다. 먼저 쿠버네티스 리소스 레이블링으로 시작하고 [Kubecost](https://aws.amazon.com/blogs/containers/aws-and-kubecost-collaborate-to-deliver-cost-monitoring-for-eks-customers/)와 같은 도구를 활용하여 파드, 네임스페이스 등의 쿠버네티스 레이블을 기반으로 인프라 비용을 보고하는 것이 좋습니다.
AWS Cost Explorer에서 결제 정보를 표시하려면 워커 노드에 태그가 있어야 합니다. Cluster Autoscaler를 사용하면 [시작 템플릿](https://docs.aws.amazon.com/eks/latest/userguide/launch-templates.html)을 사용하여 관리형 노드 그룹 내의 워커 노드에 태그를 지정합니다. 자체 관리형 노드 그룹의 경우 [EC2 Auto Scaling 그룹](https://docs.aws.amazon.com/autoscaling/ec2/userguide/ec2-auto-scaling-tagging.html) 을 사용하여 인스턴스에 태그를 지정합니다. Karpenter에서 프로비저닝한 인스턴스의 경우 [노드 템플릿의 spec.tags](https://karpenter.sh/v0.29/concepts/node-templates/#spectags)를 사용하여 태그를 지정하십시오.
### 멀티 테넌트 클러스터
다른 팀이 공유하는 클러스터에서 작업하는 경우 동일한 노드에서 실행되는 다른 워크로드를 파악하지 못할 수 있습니다. 리소스 요청은 CPU 공유와 같은 일부 "시끄러운 이웃(noisy neighbor)" 문제를 격리하는 데 도움이 될 수 있지만 디스크 I/O 병목과 같은 모든 리소스 경계를 분리하지는 못할 수도 있습니다. 워크로드에 의해 사용 가능한 모든 리소스를 분리하거나 제한할 수는 없습니다. 다른 워크로드보다 높은 비율로 공유 리소스를 사용하는 워크로드는 노드 [taint와 toleration](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/)을 통해 격리해야 합니다. 이러한 워크로드를 위한 또 다른 고급 기법은 컨테이너의 공유 CPU 대신 전용 CPU를 보장하는 [CPU pinning](https://kubernetes.io/docs/tasks/administer-cluster/cpu-management-policies/#static-policy)을 적용할 수 있습니다.
워크로드를 노드 수준에서 분리하는 것은 비용이 더 많이 들 수 있지만 [예약 인스턴스](https://aws.amazon.com/ec2/pricing/reserved-instances/), [Graviton 프로세서](https://aws.amazon.com/ec2/graviton/) 또는 [스팟 인스턴스](https://aws.amazon.com/ec2/spot/)을 사용하여 [BestEffort](https://kubernetes.io/docs/concepts/workloads/pods/pod-qos/#besteffort) 작업을 예약하거나 추가 비용 절감을 활용할 수 있습니다.
공유 클러스터에는 IP 고갈, 쿠버네티스 서비스 제한 또는 API 확장 요청과 같은 클러스터 수준 리소스 제약이 있을 수도 있습니다. [확장성 모범 사례 가이드](https://aws.github.io/aws-eks-best-practices/scalability/docs/control-plane/)를 검토하여 클러스터가 이러한 제한이 없는지 확인해야 합니다.
네임스페이스 또는 Karpenter 프로비저너 수준에서 리소스를 격리할 수 있습니다. [리소스 할당량(Quota)](https://kubernetes.io/docs/concepts/policy/resource-quotas/)은 네임스페이스의 워크로드가 소비할 수 있는 리소스 수를 제한하는 방법을 제공합니다. 이는 초기 보호 수단으로 유용할 수 있지만, 워크로드 확장을 인위적으로 제한하지 않도록 지속적으로 평가해야 합니다.
Karpenter 프로비저너는 클러스터에서 [일부 사용 가능한 리소스(예: CPU, GPU)에 제한을 설정](https://karpenter.sh/docs/concepts/provisioners/#speclimitsresources)할 수 있지만 적절한 프로비저너를 사용하도록 테넌트 애플리케이션을 구성해야 합니다. 이렇게 하면 단일 제공자가 클러스터에 너무 많은 노드를 생성하는 것을 방지할 수 있지만, 제한을 너무 낮게 설정하지 않도록 지속적으로 평가하여 워크로드가 확장되지 않도록 해야 합니다.
### 오토스케일링 스케줄링
주말 또는 휴일에는 클러스터를 축소해야 할 수도 있습니다. 이는 사용하지 않을 때 0으로 축소하려는 테스트 및 비프로덕션 클러스터에 특히 적합합니다. [cluster-turndown](https://github.com/kubecost/cluster-turndown) 와 같은 솔루션은 크론 스케줄에 따라 복제본을 0으로 축소할 수 있습니다. 다음 [AWS 블로그](https://aws.amazon.com/blogs/containers/manage-scale-to-zero-scenarios-with-karpenter-and-serverless/)에 설명된 대로 Karpenter를 사용하여 동일한 작업을 수행할 수도 있습니다.
## 컴퓨팅 용량 유형 최적화
클러스터의 총 컴퓨팅 용량을 최적화하고 빈 패킹을 사용한 후에는 클러스터에 프로비저닝한 컴퓨팅 유형과 해당 리소스에 대한 비용을 확인해야 합니다. AWS는 컴퓨팅 비용을 절감할 수 있는 [컴퓨팅 절감형 플랜(Savings Plan)](https://aws.amazon.com/savingsplans/compute-pricing/)을 운영하고 있으며, 이를 다음과 같은 용량 유형으로 분류해 보겠습니다.
* 스팟
* 절감형 플랜(Savings Plan)
* 온디맨드
* Fargate
각 용량 유형에는 관리 오버헤드, 가용성 및 장기 약정 측면에서 서로 다른 절충점이 있으므로 환경에 적합한 것을 결정해야 합니다. 어떤 환경도 단일 용량 유형에 의존해서는 안 되며 단일 클러스터에 여러 실행 유형을 혼합하여 특정 워크로드 요구 사항 및 비용을 최적화할 수 있습니다.
### 스팟 인스턴스
[스팟](https://aws.amazon.com/ec2/spot/) 용량 유형은 가용영역의 예비 용량에서 EC2 인스턴스를 프로비저닝합니다. 스팟은 최대 90% 까지 할인을 제공하지만, 다른 곳에서 필요할 경우 해당 인스턴스가 중단될 수 있습니다. 또한 새 스팟 인스턴스를 프로비저닝할 용량이 항상 있는 것은 아니며 [2분 중단 알림](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-interruptions.html)을 통해 기존 스팟 인스턴스를 회수할 수 있습니다. 애플리케이션의 시작 또는 종료 프로세스가 오래 걸리는 경우 스팟 인스턴스가 최선의 옵션이 아닐 수 있습니다.
스팟 컴퓨팅은 다양한 인스턴스 유형을 사용하여 사용 가능한 스팟 용량이 없을 가능성을 줄여야 합니다. 노드를 안전하게 종료하려면 인스턴스 중단을 처리해야 합니다. Karpenter 또는 관리형 노드 그룹의 일부로 프로비저닝된 노드는 [인스턴스 중단 알림](https://aws.github.io/aws-eks-best-practices/karpenter/#enable-interruption-handling-when-using-spot)을 자동으로 지원합니다. 자체 관리형 노드를 사용하는 경우 [노드 종료 핸들러](https://github.com/aws/aws-node-termination-handler)를 별도로 실행하여 스팟 인스턴스를 정상적으로 종료해야 합니다.
단일 클러스터에서 스팟 인스턴스와 온디맨드 인스턴스의 균형을 맞출 수 있습니다. Karpenter를 사용하면 [가중치 프로비저너](https://karpenter.sh/docs/concepts/scheduling/#on-demandspot-ratio-split)를 생성하여 다양한 용량 유형의 균형을 맞출 수 있습니다. Cluster Autoscaler를 사용하면 [스팟 및 온디맨드 또는 예약 인스턴스가 포함된 혼합 노드 그룹](https://aws.amazon.com/blogs/containers/amazon-eks-now-supports-provisioning-and-managing-ec2-spot-instances-in-managed-node-groups/)을 생성할 수 있습니다.
다음은 Karpenter를 사용하여 온디맨드 인스턴스보다 스팟 **** 인스턴스 우선 순위를 높게 정하는 예입니다. 프로비저너를 생성할 때 스팟, 온디맨드 또는 둘 다 지정할 수 있습니다(아래 그림 참조). 둘 다 지정하고 파드가 스팟 또는 온디맨드를 사용해야 하는지 명시적으로 지정하지 않는 경우 Karpenter는 [price-capacity-optimization 할당 전략](https://aws.amazon.com/blogs/compute/introducing-price-capacity-optimized-allocation-strategy-for-ec2-spot-instances/)으로 노드를 프로비저닝할 때 스팟의 우선 순위를 지정합니다.
```yaml hl_lines="9"
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: spot-prioritized
spec:
requirements:
- key: "karpenter.sh/capacity-type"
operator: In
values: ["spot", "on-demand"]
```
### Savings Plans, 예약 인스턴스 및 AWS 엔터프라이즈 할인 프로그램(EDP)
[Compute Savings Plan](https://aws.amazon.com/savingsplans/compute-pricing/)을 사용하면 컴퓨팅 비용을 줄일 수 있습니다. Savings Plan은 1년 또는 3년 컴퓨팅 사용 약정 시 할인된 가격을 제공합니다. 사용량은 EKS 클러스터의 EC2 인스턴스에 적용할 수 있지만 Lambda 및 Fargate와 같은 모든 컴퓨팅 사용에도 적용됩니다. Savings Plan을 사용하면 비용을 절감하면서도 약정 기간 동안 모든 EC2 인스턴스 유형을 선택할 수 있습니다.
Compute Savings Plan을 사용하면 사용하려는 인스턴스 유형, 제품군 또는 리전에 대한 약정 없이 EC2 비용을 최대 66% 절감할 수 있습니다. 절감액은 인스턴스를 사용할 때 인스턴스에 자동으로 적용됩니다.
EC2 인스턴스 Savings Plan은 특정 리전 및 EC2 제품군(예: C 제품군 인스턴스)의 사용량을 약정하여 컴퓨팅 비용을 최대 72% 절감합니다. 리전 내 모든 AZ로 사용량을 전환하고, c5 또는 c6와 같은 모든 세대의 인스턴스 패밀리를 사용하고, 패밀리 내에서 원하는 크기의 인스턴스를 사용할 수 있습니다. 할인은 Savings Plan 기준과 일치하는 계정 내 모든 인스턴스에 자동으로 적용됩니다.
[예약 인스턴스](https://aws.amazon.com/ec2/pricing/reserved-instances/)는 EC2 인스턴스 Savings Plan과 비슷하지만 가용영역 또는 지역의 용량을 보장하고 온디맨드 인스턴스에 비해 비용을 최대 72% 절감합니다 .필요한 예약 용량을 계산한 후 예약 기간(1년 또는 3년)을 선택할 수 있습니다. 어카운트에서 해당 EC2 인스턴스를 실행하면 할인이 자동으로 적용됩니다.
또한 고객은 AWS와 기업 계약을 체결할 수 있습니다.기업 계약은 고객에게 요구 사항에 가장 적합한 계약을 조정할 수 있는 옵션을 제공합니다.고객은 AWS 엔터프라이즈 할인 프로그램(EDP, Enterprise Discount Program)를 기반으로 가격 할인을 받을 수 있습니다. 기업 계약에 대한 추가 정보는 AWS 영업 담당자에게 문의하세요.
### 온디맨드
온디맨드 EC2 인스턴스는 (스팟에 비해) 중단 없이 사용할 수 있고 (Savings Plan에 비해) 장기 약정이 없다는 이점이 있습니다. 클러스터에서 비용을 절감하려면 온디맨드 EC2 인스턴스의 사용량을 줄여야 합니다.
워크로드 요구 사항을 최적화한 후에는 클러스터의 최소 및 최대 용량을 계산하여야 합니다. 이 수치는 시간이 지남에 따라 변경될 수 있지만 감소하는 경우는 거의 없습니다. 최소 금액 미만의 모든 항목에는 Savings Plan을 사용하고 애플리케이션 가용성에 영향을 미치지 않는 용량은 확보해 두는 것이 좋습니다. 지속적으로 사용되지 않거나 가용성이 필요한 다른 모든 항목은 온디맨드로 사용할 수 있습니다.
이 섹션에서 언급한 것처럼 사용량을 줄이는 가장 좋은 방법은 리소스를 적게 사용하고 프로비저닝한 리소스를 최대한 활용하는 것입니다. Cluster Autoscaler를 사용하면 `scale-down-utilization-threshold` 설정으로 사용률이 낮은 노드를 제거할 수 있습니다.Karpenter의 경우 통합을 활성화하는 것이 좋습니다.
워크로드에 사용할 수 있는 EC2 인스턴스 유형을 수동으로 식별하려면 [ec2-instance-selector](https://github.com/aws/amazon-ec2-instance-selector)를 사용할 수 있습니다. 그러면 각 러전에서 사용 가능한 인스턴스는 물론 EKS와 호환되는 인스턴스도 표시할 수 있습니다. 다음 예는 x86 프로세스 아키텍처, 4Gb 메모리, vCPU 2개를 갖추고 us-east-1 지역에서 사용 가능한 인스턴스를 보여줍니다.
```bash
ec2-instance-selector --memory 4 --vcpus 2 --cpu-architecture x86_64 \
-r us-east-1 --service eks
c5.large
c5a.large
c5ad.large
c5d.large
c6a.large
c6i.large
t2.medium
t3.medium
t3a.medium
```
운영 환경이 아닌 경우 야간 및 주말과 같이 사용하지 않는 시간에는 클러스터를 자동으로 축소할 수 있습니다. kubecost 프로젝트 [cluster-turndown](https://github.com/kubecost/cluster-turndown)은 설정된 일정에 따라 클러스터를 자동으로 축소할 수 있는 컨트롤러의 예입니다.
### Fargate 컴퓨팅
Fargate 컴퓨팅은 EKS 클러스터를 위한 완전 관리형 컴퓨팅 옵션입니다. 쿠버네티스 클러스터의 노드당 파드 하나를 스케줄링하여 파드 격리를 제공합니다. 이를 통해 워크로드의 CPU 및 RAM 메모리 요구 사항에 맞게 컴퓨팅 노드의 크기를 조정하여 클러스터의 워크로드 사용을 엄격하게 제어할 수 있습니다.
Fargate는 최소 0.25vCPU, 0.5GB 메모리에서부터 최대 16vCPU, 120GB 메모리까지 워크로드를 확장할 수 있습니다. 사용할 수 있는 [파드 크기 변형](https://docs.aws.amazon.com/eks/latest/userguide/fargate-pod-configuration.html)에 제한이 있으므로 Fargate 설정이 워크로드에 적합한지 확인해야 합니다. 예를 들어 워크로드가 vCPU 1개, 0.5GB 메모리가 필요한 경우 이를 위한 가장 작은 Fargate 파드는 vCPU 1개, 2GB 메모리입니다.
Fargate는 EC2 인스턴스 또는 운영 체제 관리가 필요 없는 등 많은 이점을 제공하지만 배포된 모든 파드가 클러스터의 개별 노드로 격리되어 있기 때문에 기존 EC2 인스턴스보다 더 많은 컴퓨팅 파워가 필요할 수 있습니다. 이를 위해서는 Kubelet, 로깅 에이전트, 일반적으로 노드에 배포하는 데몬셋 등의 항목을 더 많이 복제해야 합니다. 데몬셋은 Fargate에서 지원되지 않으므로 파드 "사이드카"로 변환하여 애플리케이션과 함께 실행해야 합니다.
Fargate는 노드별로 각 워크로드간 분리되기 때문에 버스팅이 불가능하고 공유될 수 없기 때문에 빈패킹이나 CPU 오버프로비저닝의 이점을 누릴 수 없습니다. Fargate를 사용하면 비용이 드는 EC2 인스턴스 관리 시간을 절약할 수 있지만 CPU 및 메모리 비용은 다른 EC2 용량 유형보다 비쌀 수 있습니다. Fargate 파드는 컴퓨팅 Savings Plan을 활용하여 온디맨드 비용을 절감할 수 있습니다.
## 컴퓨팅 사용 최적화
컴퓨팅 인프라 비용을 절감하는 또 다른 방법은 워크로드에 더 효율적인 컴퓨팅을 사용하는 것입니다. 이는 x86보다 최대 20% 저렴하고 에너지 효율이 60% 더 높은 [Graviton 프로세서](https://aws.amazon.com/ec2/graviton/)와 같이 성능이 더 뛰어난 범용 컴퓨팅이나 GPU 및 [FPGA](https://aws.amazon.com/ec2/instance-types/f1/) 와 같은 워크로드별 가속기를 통해 얻을 수 있습니다. 워크로드에 맞게 [ARM 아키텍처에서 실행](https://aws.amazon.com/blogs/containers/how-to-build-your-containers-for-arm-and-save-with-graviton-and-spot-instances-on-amazon-ecs/)하고 [적절한 가속기로 노드를 설정](https://aws.amazon.com/blogs/compute/running-gpu-accelerated-kubernetes-workloads-on-p3-and-p2-ec2-instances-with-amazon-eks/)할 수 있는 컨테이너를 구축해야 합니다.
EKS는 혼합 아키텍처(예: amd64 및 arm64)로 클러스터를 실행할 수 있으며 컨테이너가 멀티 아키텍처용으로 컴파일된 경우 프로비저너에서 두 아키텍처를 모두 허용하여 Karpenter와 함께 Graviton 프로세서를 활용할 수 있습니다. 하지만 성능을 일관되게 유지하려면 각 워크로드를 단일 컴퓨팅 아키텍처에 두고 추가 용량이 없는 경우에만 다른 아키텍처를 사용하는 것이 좋습니다.
프로비저너는 여러 아키텍처로 구성할 수 있으며 워크로드는 워크로드 사양에서 특정 아키텍처를 요청할 수도 있습니다.
```yaml
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: default
spec:
requirements:
- key: "kubernetes.io/arch"
operator: In
values: ["arm64", "amd64"]
```
Cluster Autoscaler를 사용하면 Graviton 인스턴스용 노드 그룹을 생성하고 새 용량을 활용하려면 [워크로드에 대한 노드 허용 범위](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/)를 설정해야 합니다.
GPU와 FPGA는 워크로드의 성능을 크게 향상시킬 수 있지만 가속기를 사용하려면 워크로드를 최적화해야 합니다. 머신러닝 및 인공지능을 위한 다양한 워크로드 유형은 컴퓨팅에 GPU를 사용할 수 있으며, 리소스 요청을 사용하여 클러스터에 인스턴스를 추가하고 워크로드에 마운트할 수 있습니다.
```yaml
spec:
template:
spec:
- containers:
...
resources:
limits:
nvidia.com/gpu: "1"
```
일부 GPU 하드웨어는 여러 워크로드에서 공유할 수 있으므로 단일 GPU를 프로비저닝하고 사용할 수 있습니다. 워크로드 GPU 공유를 구성하는 방법을 보려면 자세한 내용은 [가상 GPU 장치 플러그인](https://aws.amazon.com/blogs/opensource/virtual-gpu-device-plugin-for-inference-workload-in-kubernetes/)을 참조하십시오. 다음 블로그를 참조할 수도 있습니다.
* [NVIDIA 타임슬라이싱 및 가속화 EC2 인스턴스를 사용하는 Amazon EKS에서의 GPU 공유](https://aws.amazon.com/blogs/containers/gpu-sharing-on-amazon-eks-with-nvidia-time-slicing-and-accelerated-ec2-instances/)
* [Amazon EKS에서 NVIDIA의 멀티 인스턴스 GPU(MIG)를 사용하여 GPU 사용률 극대화: GPU 당 더 많은 파드를 실행하여 성능 향상](https://aws.amazon.com/blogs/containers/maximizing-gpu-utilization-with-nvidias-multi-instance-gpu-mig-on-amazon-eks-running-more-pods-per-gpu-for-enhanced-performance/ | eks | search exclude true CPU 1 Right sizing 2 3 GPU Right sizing EKS EC2 request limit request request request limit Goldilocks https www youtube com watch v DfmQWYiwFDk KRR https www youtube com watch v uITOzpf82RY Kubecost https aws amazon com blogs containers aws and kubecost collaborate to deliver cost monitoring for eks customers https aws github io aws eks best practices scalability docs node efficiency application right sizing Horizontal Pod Autoscaler HPA Vertical Pod Autoscaler VPA Karpenter http karpenter sh Cluster Autoscaler https github com kubernetes autoscaler Karpenter Cluster Autoscaler VPA VPA PodDisruptionBudgets https kubernetes io docs tasks run application configure pdb Pod Readiness Gates https kubernetes sigs github io aws load balancer controller v2 5 deploy pod readiness gate HPA CPU CPU Amazon CloudWatch SQS KEDA https keda sh KEDA CloudWatch https aws amazon com blogs mt proactive autoscaling of kubernetes workloads with keda using metrics ingested into amazon cloudwatch https aws observability github io observability best practices guides monitor what matters AWS Karpenter Cluster Autoscaler Karpenter Cluster Autoscaler Karpenter Cluster Autoscaler Priority Expander Cluster Autoscaler Cluster Autoscaler CPU Graviton yaml apiVersion eksctl io v1alpha5 kind ClusterConfig metadata name my cluster managedNodeGroups name managed ondemand minSize 1 maxSize 7 instanceType m5 xlarge name managed reserved minSize 2 maxSize 10 instanceType c5 2xlarge yaml apiVersion v1 kind ConfigMap metadata name cluster autoscaler priority expander namespace kube system data priorities 10 ondemand 50 reserved AZ Cluster Autoscaler https aws github io aws eks best practices cluster autoscaling Cluster Autoscaler Kubernetes descheduler https github com kubernetes sigs descheduler 10 60 40 60 60 Descheduler Descheduler Karpenter Karpenter groupless Karpenter EC2 Bin Packing Karpenter Karpenter consolidation true Karpenter Karpenter https aws amazon com blogs containers optimizing your kubernetes compute costs with karpenter consolidation yaml apiVersion karpenter sh v1alpha5 kind Provisioner metadata name enable binpacking spec consolidation enabled true do not evict Karpenter do not evict cordon yaml hl lines 8 apiVersion v1 kind Pod metadata name label demo labels environment production annotations karpenter sh do not evict true spec containers name nginx image nginx ports containerPort 80 Cluster Autoscaler scale down utilization threshold 50 scale down unneeded time 10 kube scheduler cluster autoscaler kubernetes io safe to evict false yaml yaml hl lines 8 apiVersion v1 kind Pod metadata name label demo labels environment production annotations cluster autoscaler kubernetes io safe to evict false spec containers name nginx image nginx ports containerPort 80 Cluster Autoscaler Karpenter AWS https docs aws amazon com tag editor latest userguide tagging html AWS Kubernetes Kubecost https aws amazon com blogs containers aws and kubecost collaborate to deliver cost monitoring for eks customers AWS Cost Explorer Cluster Autoscaler https docs aws amazon com eks latest userguide launch templates html EC2 Auto Scaling https docs aws amazon com autoscaling ec2 userguide ec2 auto scaling tagging html Karpenter spec tags https karpenter sh v0 29 concepts node templates spectags CPU noisy neighbor I O taint toleration https kubernetes io docs concepts scheduling eviction taint and toleration CPU CPU CPU pinning https kubernetes io docs tasks administer cluster cpu management policies static policy https aws amazon com ec2 pricing reserved instances Graviton https aws amazon com ec2 graviton https aws amazon com ec2 spot BestEffort https kubernetes io docs concepts workloads pods pod qos besteffort IP API https aws github io aws eks best practices scalability docs control plane Karpenter Quota https kubernetes io docs concepts policy resource quotas Karpenter CPU GPU https karpenter sh docs concepts provisioners speclimitsresources 0 cluster turndown https github com kubecost cluster turndown 0 AWS https aws amazon com blogs containers manage scale to zero scenarios with karpenter and serverless Karpenter AWS Savings Plan https aws amazon com savingsplans compute pricing Savings Plan Fargate https aws amazon com ec2 spot EC2 90 2 https docs aws amazon com AWSEC2 latest UserGuide spot interruptions html Karpenter https aws github io aws eks best practices karpenter enable interruption handling when using spot https github com aws aws node termination handler Karpenter https karpenter sh docs concepts scheduling on demandspot ratio split Cluster Autoscaler https aws amazon com blogs containers amazon eks now supports provisioning and managing ec2 spot instances in managed node groups Karpenter Karpenter price capacity optimization https aws amazon com blogs compute introducing price capacity optimized allocation strategy for ec2 spot instances yaml hl lines 9 apiVersion karpenter sh v1alpha5 kind Provisioner metadata name spot prioritized spec requirements key karpenter sh capacity type operator In values spot on demand Savings Plans AWS EDP Compute Savings Plan https aws amazon com savingsplans compute pricing Savings Plan 1 3 EKS EC2 Lambda Fargate Savings Plan EC2 Compute Savings Plan EC2 66 EC2 Savings Plan EC2 C 72 AZ c5 c6 Savings Plan https aws amazon com ec2 pricing reserved instances EC2 Savings Plan 72 1 3 EC2 AWS AWS EDP Enterprise Discount Program AWS EC2 Savings Plan EC2 Savings Plan Cluster Autoscaler scale down utilization threshold Karpenter EC2 ec2 instance selector https github com aws amazon ec2 instance selector EKS x86 4Gb vCPU 2 us east 1 bash ec2 instance selector memory 4 vcpus 2 cpu architecture x86 64 r us east 1 service eks c5 large c5a large c5ad large c5d large c6a large c6i large t2 medium t3 medium t3a medium kubecost cluster turndown https github com kubecost cluster turndown Fargate Fargate EKS CPU RAM Fargate 0 25vCPU 0 5GB 16vCPU 120GB https docs aws amazon com eks latest userguide fargate pod configuration html Fargate vCPU 1 0 5GB Fargate vCPU 1 2GB Fargate EC2 EC2 Kubelet Fargate Fargate CPU Fargate EC2 CPU EC2 Fargate Savings Plan x86 20 60 Graviton https aws amazon com ec2 graviton GPU FPGA https aws amazon com ec2 instance types f1 ARM https aws amazon com blogs containers how to build your containers for arm and save with graviton and spot instances on amazon ecs https aws amazon com blogs compute running gpu accelerated kubernetes workloads on p3 and p2 ec2 instances with amazon eks EKS amd64 arm64 Karpenter Graviton yaml apiVersion karpenter sh v1alpha5 kind Provisioner metadata name default spec requirements key kubernetes io arch operator In values arm64 amd64 Cluster Autoscaler Graviton https kubernetes io docs concepts scheduling eviction taint and toleration GPU FPGA GPU yaml spec template spec containers resources limits nvidia com gpu 1 GPU GPU GPU GPU https aws amazon com blogs opensource virtual gpu device plugin for inference workload in kubernetes NVIDIA EC2 Amazon EKS GPU https aws amazon com blogs containers gpu sharing on amazon eks with nvidia time slicing and accelerated ec2 instances Amazon EKS NVIDIA GPU MIG GPU GPU https aws amazon com blogs containers maximizing gpu utilization with nvidias multi instance gpu mig on amazon eks running more pods per gpu for enhanced performance |
eks exclude true HA AWS AZ Amazon EKS EKS VPC ELB ECR search | ---
search:
exclude: true
---
# 비용 최적화 - 네트워킹
고가용성(HA)을 위한 시스템 아키텍처는 복원력과 내결함성을 달성하기 위한 모범 사례를 통해 구현됩니다. 이는 특정 AWS 리전의 여러 가용영역(AZ)에 워크로드와 기본 인프라를 분산시키는 것을 의미합니다. Amazon EKS 환경에 이러한 특성을 적용하면 시스템의 전반적인 안정성이 향상됩니다. 이와 함께 EKS 환경은 다양한 구조(예: VPC), 구성 요소(예: ELB) 및 통합(예: ECR 및 기타 컨테이너 레지스트리)으로 구성될 가능성이 높습니다.
고가용성 시스템과 기타 사용 사례별 구성 요소의 조합은 데이터 전송 및 처리 방식에 중요한 역할을 할 수 있습니다.이는 결국 데이터 전송 및 처리로 인해 발생하는 비용에도 영향을 미칩니다.
아래에 자세히 설명된 실천사항은 다양한 도메인 및 사용 사례에서 비용 효율성을 달성하기 위해 EKS 환경을 설계하고 최적화하는 데 도움이 됩니다.
## 파드 간 통신
설정에 따라 파드 간 네트워크 통신 및 데이터 전송은 Amazon EKS 워크로드 실행의 전체 비용에 상당한 영향을 미칠 수 있습니다.이 섹션에서는 고가용성 (HA) 아키텍처, 애플리케이션 성능 및 복원력을 고려하면서 파드 간 통신과 관련된 비용을 줄이기 위한 다양한 개념과 접근 방식을 다룹니다.
### 가용영역으로의 트래픽 제한
잦은 이그레스 크로스존 트래픽(AZ 간에 분산되는 트래픽)은 네트워크 관련 비용에 큰 영향을 미칠 수 있습니다. 다음은 EKS 클러스터의 파드 간 크로스 존 트래픽 양을 제어하는 방법에 대한 몇 가지 전략입니다.
_클러스터 내 파드 간 크로스-존 트래픽 양(예: 전송된 데이터 양 또는 바이트 단위 전송)을 세밀하게 파악하려면 [이 게시물 참조](https://aws.amazon.com/blogs/containers/getting-visibility-into-your-amazon-eks-cross-az-pod-to-pod-network-bytes/)하세요._
**Topology Aware Routing (이전 명칭은 Topology Aware Hint) 활용**
![Topology aware routing](../images/topo_aware_routing.png)
Topology Aware Routing을 사용할 때는 트래픽을 라우팅할 때 서비스, EndpointSlices 및 `kube-proxy`가 함께 작동하는 방식을 이해하는 것이 중요합니다. 위 다이어그램에서 볼 수 있듯이 서비스는 파드로 향하는 트래픽을 수신하는 안정적인 네트워크 추상화 계층입니다. 서비스가 생성되면 여러 EndpointSlices가 생성됩니다. 각 EndpointSlice에는 실행 중인 노드 및 추가 토폴로지 정보와 함께 파드 주소의 하위 집합이 포함된 엔드포인트 목록이 있습니다. `kube-proxy`는 클러스터의 모든 노드에서 실행되고 내부 라우팅 역할도 수행하는 데몬셋이지만, 생성된 EndpointSlices에서 소비하는 양을 기반으로 합니다.
[*Topology aware routing*](https://kubernetes.io/docs/concepts/services-networking/topology-aware-routing/)을 활성화하고 쿠버네티스 서비스에 구현하면, EndpointSlices 컨트롤러는 클러스터가 분산되어 있는 여러 영역에 비례적으로 엔드포인트를 할당합니다. EndpointSlices 컨트롤러는 각 엔드포인트에 대해 영역에 대한 _힌트_ 도 설정합니다. _힌트_ 는 엔드포인트가 트래픽을 처리해야 하는 영역을 설명합니다.그러면 `kube-proxy`가 적용된 _힌트_ 를 기반으로 영역에서 엔드포인트로 트래픽을 라우팅합니다.
아래 다이어그램은 'kube-proxy'가 영역 출발지를 기반으로 가야 할 목적지를 알 수 있도록 힌트가 있는 EndpointSlice를 구성하는 방법을 보여줍니다. 힌트가 없으면 이러한 할당이나 구성이 없으며 트래픽이 어디에서 오는지에 관계없이 서로 다른 지역 목적지로 프록시됩니다.
![Endpoint Slice](../images/endpoint_slice.png)
경우에 따라 EndPointSlice 컨트롤러는 다른 영역에 대해 _힌트_ 를 적용할 수 있습니다. 즉, 엔드포인트가 다른 영역에서 발생하는 트래픽을 처리하게 될 수 있습니다. 이렇게 하는 이유는 서로 다른 영역의 엔드포인트 간에 트래픽을 균일하게 분배하기 위함입니다.
다음은 서비스에 대해 _토폴로지 인식 라우팅_ 을 활성화하는 방법에 대한 코드 스니펫입니다.
```yaml hl_lines="6-7"
apiVersion: v1
kind: Service
metadata:
name: orders-service
namespace: ecommerce
annotations:
service.kubernetes.io/topology-mode: Auto
spec:
selector:
app: orders
type: ClusterIP
ports:
- protocol: TCP
port: 3003
targetPort: 3003
```
아래 스크린샷은 EndpointSlices 컨트롤러가 `eu-west-1a`가용영역에서 실행되는 파드 복제본의 엔드포인트에 힌트를 성공적으로 적용한 결과를 보여준다.
![Slice shell](../images/slice_shell.png)
!!! note
Topology aware routing이 아직 **베타**라는 것 인지해야 합니다. 또한 워크로드가 클러스터 토폴로지 전체에 광범위하고 균등하게 분산되어 있을 때 이 기능을 더 잘 예측할 수 있습니다. 따라서 [파드 토폴로지 확산 제약](https://kubernetes.io/docs/concepts/scheduling-eviction/topology-spread-constraints/)과 같이 애플리케이션의 가용성을 높이는 일정 제약과 함께 사용하는 것이 좋습니다.
**오토스케일러 사용: 특정 가용영역에 노드 프로비저닝**
여러 가용영역의 고가용성 환경에서 워크로드를 실행하는 것을 _강력히 권장_ 합니다. 이렇게 하면 애플리케이션의 안정성이 향상되며, 특히 가용영역에 문제가 발생한 경우 더욱 그렇습니다. 네트워크 관련 비용을 줄이기 위해 안정성을 희생하려는 경우 노드를 단일 가용영역로 제한할 수 있습니다.
동일한 가용영역에서 모든 파드를 실행하려면 동일한 가용영역에 워커 노드를 프로비저닝하거나 동일한 가용영역에서 실행되는 워커 노드에 파드를 스케줄링해야 합니다. 단일 가용영역 내에서 노드를 프로비저닝하려면 [Cluster Autoscaler (CA)](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler)를 사용하여 동일한 가용영역에 속하는 서브넷으로 노드 그룹을 정의하십시오. [Karpenter](https://karpenter.sh/)의 경우 "[_topology.kubernetes.io/zone"_](http://topology.kubernetes.io/zone%E2%80%9D)을 사용하고 워커 노드를 만들려는 가용영역를 지정합니다. 예를 들어 아래 카펜터 프로비저닝 스니펫은 us-west-2a 가용영역의 노드를 프로비저닝합니다.
**Karpenter**
```yaml hl_lines="5-9"
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
name: single-az
spec:
requirements:
- key: "topology.kubernetes.io/zone"
operator: In
values: ["us-west-2a"]
```
**Cluster Autoscaler (CA)**
```yaml hl_lines="7-8"
apiVersion: eksctl.io/v1alpha5
kind: ClusterConfig
metadata:
name: my-ca-cluster
region: us-east-1
version: "1.21"
availabilityZones:
- us-east-1a
managedNodeGroups:
- name: managed-nodes
labels:
role: managed-nodes
instanceType: t3.medium
minSize: 1
maxSize: 10
desiredCapacity: 1
...
```
**파드 할당 및 노드 어피니티 사용**
또는 여러 가용영역에서 실행되는 워커 노드가 있는 경우 각 노드에는 가용영역 값(예: us-west-2a 또는 us-west-2b)과 함께 _[topology.kubernetes.io/zone](http://topology.kubernetes.io/zone%E2%80%9D)_ 레이블이 붙습니다.`nodeSelector` 또는 `nodeAffinity`를 활용하여 단일 가용영역의 노드에 파드를 스케줄링할 수 있습니다. 예를 들어, 다음 매니페스트 파일은 가용영역 us-west-2a에서 실행되는 노드 내에서 파드를 스케줄링한다.
```yaml hl_lines="7-9"
apiVersion: v1
kind: Pod
metadata:
name: nginx
labels:
env: test
spec:
nodeSelector:
topology.kubernetes.io/zone: us-west-2a
containers:
- name: nginx
image: nginx
imagePullPolicy: IfNotPresent
```
### 노드로의 트래픽 제한
존 레벨에서 트래픽을 제한하는 것만으로는 충분하지 않은 경우가 있습니다. 비용 절감 외에도 상호 통신이 빈번한 특정 애플리케이션 간의 네트워크 지연 시간을 줄여야 하는 추가 요구 사항이 있을 수 있습니다. 최적의 네트워크 성능을 달성하고 비용을 절감하려면 트래픽을 특정 노드로 제한하는 방법이 필요합니다. 예를 들어 마이크로서비스 A는 고가용성(HA)설정에서도 항상 노드 1의 마이크로서비스 B와 통신해야 합니다. 노드 1의 마이크로서비스 A가 노드 2의 마이크로서비스 B와 통신하도록 하면 특히 노드 2가 완전히 별도의 AZ에 있는 경우 이러한 성격의 애플리케이션에 필요한 성능에 부정적인 영향을 미칠 수 있습니다.
**서비스 내부 트래픽 정책 사용**
파드 네트워크 트래픽을 노드로 제한하려면 _[서비스 내부 트래픽 정책](https://kubernetes.io/docs/concepts/services-networking/service-traffic-policy/)_ 을 사용할 수 있습니다. 기본적으로 워크로드 서비스로 전송되는 트래픽은 생성된 여러 엔드포인트에 무작위로 분산됩니다. 따라서 HA 아키텍처에서는 마이크로서비스 A의 트래픽이 여러 AZ의 특정 노드에 있는 마이크로서비스 B의 모든 복제본으로 이동할 수 있습니다. 하지만 서비스의 내부 트래픽 정책을 `local`로 설정하면 트래픽이 발생한 노드의 엔드포인트로 트래픽이 제한됩니다. 이 정책은 노드-로컬 엔드포인트를 독점적으로 사용하도록 규정합니다. 암시적으로 보면 해당 워크로드에 대한 네트워크 트래픽 관련 비용이 클러스터 전체에 분산되는 경우보다 낮아질 것입니다.또한 지연 시간이 짧아져 애플리케이션의 성능이 향상됩니다.
!!! note
이 기능을 쿠버네티스의 토폴로지 인식 라우팅과 결합할 수 없다는 점에 유의해야 합니다.
![Local internal traffic](../images/local_traffic.png)
다음은 서비스의 _내부 트래픽 정책_ 을 설정하는 방법에 대한 코드 스니펫입니다.
```yaml hl_lines="14"
apiVersion: v1
kind: Service
metadata:
name: orders-service
namespace: ecommerce
spec:
selector:
app: orders
type: ClusterIP
ports:
- protocol: TCP
port: 3003
targetPort: 3003
internalTrafficPolicy: Local
```
트래픽 감소로 인한 예상치 못한 애플리케이션 동작을 방지하려면 다음과 같은 접근 방식을 고려해야 합니다:
* 통신하는 각 파드에 대해 충분한 레플리카 실행
* [토폴로지 분산 제약 조건](https://kubernetes.io/docs/concepts/scheduling-eviction/topology-spread-constraints/)을 사용하여 파드를 비교적 균일하게 분산시키십시오.
* 통신하는 파드를 동일한 노드에 배치하기 위해 [파드 어피니티 규칙](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#inter-pod-affinity-and-anti-affinity)을 활용하세요.
이 예에서는 마이크로서비스 A의 복제본 2개와 마이크로서비스 B의 복제본 3개가 있습니다. 마이크로서비스 A의 복제본이 노드 1과 2 사이에 분산되어 있고 마이크로서비스 B의 복제본이 노드 3에 있는 경우 `local` 내부 트래픽 정책 때문에 통신할 수 없습니다. 사용 가능한 노드-로컬 엔드포인트가 없으면 트래픽이 삭제됩니다.
![node-local_no_peer](../images/no_node_local_1.png)
마이크로서비스 B의 노드 1과 2에 복제본 3개 중 2개가 있는 경우 피어 애플리케이션 간에 통신이 이루어집니다.하지만 통신할 피어 복제본이 없는 마이크로서비스 B의 격리된 복제본은 여전히 남아 있을 것입니다.
![node-local_with_peer](../images/no_node_local_2.png)
!!! note
일부 시나리오에서는 위 다이어그램에 표시된 것과 같은 격리된 복제본이 여전히 목적(예: 외부 수신 트래픽의 요청 처리)에 부합한다면 걱정할 필요가 없을 수도 있습니다.
**토폴로지 분산 제약이 있는 서비스 내부 트래픽 정책 사용**
_내부 트래픽 정책_ 을 _토폴로지 확산 제약_ 과 함께 사용하면 서로 다른 노드의 마이크로서비스와 통신하기 위한 적절한 수의 복제본을 확보하는 데 유용할 수 있습니다.
```yaml hl_lines="16-22"
apiVersion: apps/v1
kind: Deployment
metadata:
name: express-test
spec:
replicas: 6
selector:
matchLabels:
app: express-test
template:
metadata:
labels:
app: express-test
tier: backend
spec:
topologySpreadConstraints:
- maxSkew: 1
topologyKey: "topology.kubernetes.io/zone"
whenUnsatisfiable: ScheduleAnyway
labelSelector:
matchLabels:
app: express-test
```
**파드 어피니티 규칙과 함께 서비스 내부 트래픽 정책 사용**
또 다른 접근 방식은 서비스 내부 트래픽 정책을 사용할 때 파드 어피니티 규칙을 사용하는 것입니다. 파드 어피니티를 사용하면 잦은 통신으로 인해 스케줄러가 특정 파드를 같은 위치에 배치하도록 영향을 줄 수 있다. 특정 파드에 엄격한 스케줄링 제약 조건(`RequiredDuringSchedulingExecutionDuringExecutionDuringIgnored`)을 적용하면, 스케줄러가 파드를 노드에 배치할 때 파드 코로케이션에 대해 더 나은 결과를 얻을 수 있다.
```yaml hl_lines="11-20"
apiVersion: apps/v1
kind: Deployment
metadata:
name: graphql
namespace: ecommerce
labels:
app.kubernetes.io/version: "0.1.6"
...
spec:
serviceAccountName: graphql-service-account
affinity:
podAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app
operator: In
values:
- orders
topologyKey: "kubernetes.io/hostname"
```
## 로드밸런서와 파드 통신
EKS 워크로드는 일반적으로 트래픽을 EKS 클러스터의 관련 파드로 분산하는 로드밸런서에 의해 선행됩니다. 아키텍처는 내부 또는 외부 로드밸런서로 구성될 수 있습니다. 아키텍처 및 네트워크 트래픽 구성에 따라 로드밸런서와 파드 간의 통신으로 인해 데이터 전송 요금이 크게 증가할 수 있습니다.
[AWS Load Balancer Controller](https://kubernetes-sigs.github.io/aws-load-balancer-controller)를 사용하여 ELB 리소스 (ALB 및 NLB) 생성을 자동으로 관리할 수 있습니다. 이러한 설정에서 발생하는 데이터 전송 요금은 네트워크 트래픽이 사용한 경로에 따라 달라집니다. AWS Load Balancer Controller는 _인스턴스 모드_ 와 _IP 모드_ 라는 두 가지 네트워크 트래픽 모드를 지원합니다.
_인스턴스 모드_ 를 사용하면 EKS 클러스터의 각 노드에서 NodePort가 열립니다. 그러면 로드밸런서가 노드 전체에서 트래픽을 균등하게 프록시합니다. 노드에 대상 파드가 실행되고 있는 경우 데이터 전송 비용이 발생하지 않습니다. 하지만 대상 파드가 별도의 노드에 있고 트래픽을 수신하는 NodePort와 다른 AZ에 있는 경우 kube-proxy에서 대상 파드로 추가 네트워크 홉이 발생하게 된다. 이러한 시나리오에서는 AZ 간 데이터 전송 요금이 부과됩니다. 노드 전체에 트래픽이 고르게 분산되기 때문에 kube-proxy에서 관련 대상 파드로의 교차 영역 네트워크 트래픽 홉과 관련된 추가 데이터 전송 요금이 부과될 가능성이 높습니다.
아래 다이어그램은 로드밸런서에서 NodePort로, 이후에 `kube-proxy`에서 다른 AZ의 별도 노드에 있는 대상 파드로 이동하는 트래픽의 네트워크 경로를 보여줍니다. 다음은 _인스턴스 모드_ 설정의 예시이다.
![LB to Pod](../images/lb_2_pod.png)
_IP 모드_ 를 사용하면 네트워크 트래픽이 로드밸런서에서 대상 파드로 직접 프록시됩니다. 따라서 이 접근 방식에는 _데이터 전송 요금이 부과되지 않습니다_.
!!! tip
데이터 전송 요금을 줄이려면 로드밸런서를 _IP 트래픽 모드_ 로 설정하는 것이 좋습니다. 이 설정에서는 로드밸런서가 VPC의 모든 서브넷에 배포되었는지 확인하는 것도 중요합니다.
아래 다이어그램은 네트워크 _IP 모드_ 에서 로드밸런서에서 파드로 이동하는 트래픽의 네트워크 경로를 보여줍니다.
![IP mode](../images/ip_mode.png)
## 컨테이너 레지스트리에서의 데이터 전송
### Amazon ECR
Amazon ECR 프라이빗 레지스트리로의 데이터 전송은 무료입니다. _지역 내 데이터 전송에는 비용이 들지 않습니다_. 하지만 인터넷으로 데이터를 전송하거나 지역 간에 데이터를 전송할 때는 양쪽에 인터넷 데이터 전송 요금이 부과됩니다.
ECR에 내장된 [이미지 복제 기능](https://docs.aws.amazon.com/AmazonECR/latest/userguide/replication.html)을 활용하여 관련 컨테이너 이미지를 워크로드와 동일한 지역에 복제해야 합니다. 이렇게 하면 복제 비용이 한 번만 청구되고 동일 리전 (리전 내) 이미지를 모두 무료로 가져올 수 있습니다.
_[인터페이스 VPC 엔드포인트](https://docs.aws.amazon.com/whitepapers/latest/aws-privatelink/what-are-vpc-endpoints.html) 를 사용하여 지역 내 ECR 저장소에 연결하면_ ECR에서 이미지를 가져오는 작업 (데이터 전송) 과 관련된 데이터 전송 비용을 더욱 줄일 수 있습니다. NAT 게이트웨이와 인터넷 게이트웨이를 통해 ECR의 퍼블릭 AWS 엔드포인트에 연결하는 대안적인 접근 방식은 더 높은 데이터 처리 및 전송 비용을 발생시킵니다. 다음 섹션에서는 워크로드와 AWS 서비스 간의 데이터 전송 비용 절감에 대해 더 자세히 다루겠습니다.
특히 큰 이미지로 워크로드를 실행하는 경우, 미리 캐시된 컨테이너 이미지로 사용자 지정 Amazon 머신 이미지 (AMI) 를 구축할 수 있습니다. 이를 통해 초기 이미지 가져오기 시간과 컨테이너 레지스트리에서 EKS 워커 노드로의 잠재적 데이터 전송 비용을 줄일 수 있습니다.
## 인터넷 및 AWS 서비스로의 데이터 전송
인터넷을 통해 쿠버네티스 워크로드를 다른 AWS 서비스 또는 타사 도구 및 플랫폼과 통합하는 것은 일반적인 관행입니다. 관련 목적지를 오가는 트래픽을 라우팅하는 데 사용되는 기본 네트워크 인프라는 데이터 전송 프로세스에서 발생하는 비용에 영향을 미칠 수 있습니다.
### NAT 게이트웨이 사용
NAT 게이트웨이는 네트워크 주소 변환 (NAT) 을 수행하는 네트워크 구성 요소입니다. 아래 다이어그램은 다른 AWS 서비스 (Amazon ECR, DynamoDB, S3) 및 타사 플랫폼과 통신하는 EKS 클러스터의 파드를 보여줍니다. 이 예시에서는 파드가 별도의 가용영역에 있는 프라이빗 서브넷에서 실행된다. 인터넷에서 트래픽을 보내고 받기 위해 NAT 게이트웨이가 한 가용영역의 퍼블릭 서브넷에 배포되어 프라이빗 IP 주소를 가진 모든 리소스가 단일 퍼블릭 IP 주소를 공유하여 인터넷에 액세스할 수 있도록 합니다. 이 NAT 게이트웨이는 인터넷 게이트웨이 구성 요소와 통신하여 패킷을 최종 목적지로 전송할 수 있도록 합니다.
![NAT Gateway](../images/nat_gw.png)
이러한 사용 사례에 NAT 게이트웨이를 사용하면 _각 AZ에 NAT 게이트웨이를 배포하여 데이터 전송 비용을 최소화할 수 있습니다._ 이렇게 하면 인터넷으로 라우팅되는 트래픽이 동일한 AZ의 NAT 게이트웨이를 통과하므로 AZ 간 데이터 전송이 방지됩니다.그러나 AZ 간 데이터 전송 비용을 절감할 수는 있지만 이 설정의 의미는 아키텍처에 추가 NAT 게이트웨이를 설치하는 데 드는 비용이 발생한다는 것입니다.
이 권장 접근 방식은 아래 다이어그램에 나와 있습니다.
![Recommended approach](../images/recommended_approach.png)
### VPC 엔드포인트 사용
이러한 아키텍처에서 비용을 추가로 절감하려면 _[VPC 엔드포인트](https://docs.aws.amazon.com/whitepapers/latest/aws-privatelink/what-are-vpc-endpoints.html)를 사용하여 워크로드와 AWS 서비스 간의 연결을 설정해야 합니다._ VPC 엔드포인트를 사용하면 인터넷을 통과하는 데이터/네트워크 패킷 없이 VPC 내에서 AWS 서비스에 액세스할 수 있습니다. 모든 트래픽은 내부적이며 AWS 네트워크 내에 머물러 있습니다. VPC 엔드포인트에는 인터페이스 VPC 엔드포인트([많은 AWS 서비스에서 지원](https://docs.aws.amazon.com/vpc/latest/privatelink/aws-services-privatelink-support.html))와 게이트웨이 VPC 엔드포인트 (S3 및 DynamoDB에서만 지원)의 두 가지 유형이 있습니다.
**게이트웨이 VPC 엔드포인트**
_게이트웨이 VPC 엔드포인트와 관련된 시간당 또는 데이터 전송 비용은 없습니다._ 게이트웨이 VPC 엔드포인트를 사용할 때는 VPC 경계를 넘어 확장할 수 없다는 점에 유의해야 합니다. VPC 피어링, VPN 네트워킹 또는 Direct Connect를 통해서는 사용할 수 없습니다.
**인터페이스 VPC 엔드포인트**
VPC 엔드포인트에는 [시간당 요금](https://aws.amazon.com/privatelink/pricing/)이 부과되며, AWS 서비스에 따라 기본 ENI를 통한 데이터 처리와 관련된 추가 요금이 부과되거나 부과되지 않을 수 있습니다. 인터페이스 VPC 엔드포인트와 관련된 가용영역 간 데이터 전송 비용을 줄이려면 각 가용영역에 VPC 엔드포인트를 만들 수 있습니다. 동일한 AWS 서비스를 가리키더라도 동일한 VPC에 여러 VPC 엔드포인트를 생성할 수 있습니다.
아래 다이어그램은 VPC 엔드포인트를 통해 AWS 서비스와 통신하는 파드를 보여줍니다.
![VPC Endpoints](../images/vpc_endpoints.png)
## VPC 간 데이터 전송
경우에 따라 서로 통신해야 하는 서로 다른 VPC(동일한 AWS 지역 내)에 워크로드가 있을 수 있습니다. 이는 각 VPC에 연결된 인터넷 게이트웨이를 통해 트래픽이 퍼블릭 인터넷을 통과하도록 허용함으로써 달성할 수 있습니다. 이러한 통신은 EC2 인스턴스, NAT 게이트웨이 또는 NAT 인스턴스와 같은 인프라 구성 요소를 퍼블릭 서브넷에 배포하여 활성화할 수 있습니다. 하지만 이러한 구성 요소가 포함된 설정에서는 VPC 내/외부로 데이터를 처리/전송하는 데 비용이 발생합니다. 개별 VPC와 주고받는 트래픽이 AZ 간에 이동하는 경우 데이터 전송 시 추가 요금이 부과됩니다. 아래 다이어그램은 NAT 게이트웨이와 인터넷 게이트웨이를 사용하여 서로 다른 VPC의 워크로드 간에 통신을 설정하는 설정을 보여줍니다.
![Between VPCs](../images/between_vpcs.png)
### VPC 피어링 연결
이러한 사용 사례에서 비용을 절감하려면 [VPC 피어링](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html)을 사용할 수 있습니다. VPC 피어링 연결을 사용하면 동일한 AZ 내에 있는 네트워크 트래픽에 대한 데이터 전송 요금이 부과되지 않습니다. 트래픽이 AZ를 통과하는 경우 비용이 발생합니다. 하지만 동일한 AWS 지역 내의 개별 VPC에 있는 워크로드 간의 비용 효율적인 통신을 위해서는 VPC 피어링 접근 방식을 사용하는 것이 좋습니다. 하지만 VPC 피어링은 전이적 네트워킹을 허용하지 않기 때문에 주로 1:1 VPC 연결에 효과적이라는 점에 유의해야 합니다.
아래 다이어그램은 VPC 피어링 연결을 통한 워크로드 통신을 개괄적으로 나타낸 것입니다.
![Peering](../images/peering.png)
### 트랜지티브(Transitive) 네트워킹 연결
이전 섹션에서 설명한 것처럼 VPC 피어링 연결은 트랜지티브 네트워킹 연결을 허용하지 않습니다. 트랜지티브 네트워킹 요구 사항이 있는 VPC를 3개 이상 연결하려면 [Transit Gateway(TGW)](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)를 사용해야 합니다. 이를 통해 VPC 피어링의 한계 또는 여러 VPC 간의 다중 VPC 피어링 연결과 관련된 운영 오버헤드를 극복할 수 있습니다. TGW로 전송된 데이터에 대해서는 [시간당 요금](https://aws.amazon.com/transit-gateway/pricing/) 이 청구됩니다. _TGW를 통해 이동하는 가용영역 간 트래픽과 관련된 목적지 비용은 없습니다._
아래 다이어그램은 동일한 AWS 지역 내에 있는 서로 다른 VPC에 있는 워크로드 간에 TGW를 통해 이동하는 가용영역 간 트래픽을 보여줍니다.
![Transitive](../images/transititive.png)
## 서비스 메시 사용
서비스 메시는 EKS 클러스터 환경에서 네트워크 관련 비용을 줄이는 데 사용할 수 있는 강력한 네트워킹 기능을 제공합니다. 그러나 서비스 메시를 채택할 경우 서비스 메시로 인해 환경에 발생할 수 있는 운영 작업과 복잡성을 신중하게 고려해야 합니다.
### 가용영역으로의 트래픽 제한
**Istio의 지역성 가중 분포 사용**
Istio를 사용하면 라우팅이 발생한 _이후에_ 트래픽에 네트워크 정책을 적용할 수 있습니다. 이 작업은 [지역 가중 분포](https://istio.io/latest/docs/tasks/traffic-management/locality-load-balancing/distribute/)와 같은 [데스티네이션룰(Destination Rules)](https://istio.io/latest/docs/reference/config/networking/destination-rule/)을 사용하여 수행됩니다. 이 기능을 사용하면 출발지를 기준으로 특정 목적지로 이동할 수 있는 트래픽의 가중치 (백분율로 표시) 를 제어할 수 있습니다. 이 트래픽의 소스는 외부 (또는 공용) 로드밸런서 또는 클러스터 자체 내의 파드에서 발생할 수 있습니다. 모든 파드 엔드포인트를 사용할 수 있게 되면 가중치 기반 라운드로빈 로드 밸런싱 알고리즘을 기반으로 지역이 선택됩니다. 특정 엔드포인트가 비정상이거나 사용할 수 없는 경우, 사용 가능한 엔드포인트에 이러한 변경 사항을 반영하도록 [지역성 가중치가 자동으로 조정됩니다](https://www.envoyproxy.io/docs/envoy/latest/intro/arch_overview/upstream/load_balancing/locality_weight.html).
!!! note
지역성 가중 배포를 구현하기 전에 먼저 네트워크 트래픽 패턴과 대상 규칙 정책이 애플리케이션 동작에 미칠 수 있는 영향을 이해해야 합니다.따라서 [AWS X-Ray](https://aws.amazon.com/xray/) 또는 [Jaeger](https://www.jaegertracing.io/)와 같은 도구를 사용하여 분산 추적(트레이싱) 메커니즘을 마련하는 것이 중요합니다.
위에서 설명한 Istio 대상 규칙을 적용하여 EKS 클러스터의 로드밸런서에서 파드로 이동하는 트래픽을 관리할 수도 있습니다. 가용성이 높은 로드밸런서 (특히 Ingress 게이트웨이) 로부터 트래픽을 수신하는 서비스에 지역성 가중치 배포 규칙을 적용할 수 있습니다. 이러한 규칙을 사용하면 영역 출처 (이 경우에는 로드밸런서) 를 기반으로 트래픽이 어디로 이동하는지 제어할 수 있습니다. 올바르게 구성하면 트래픽을 여러 가용영역의 파드 복제본에 균등하게 또는 무작위로 분배하는 로드밸런서에 비해 이그레스 교차 영역 트래픽이 덜 발생합니다.
다음은 Istio에 있는 데스티네이션룰 리소스의 코드 블록 예시입니다. 아래에서 볼 수 있듯이 이 리소스는 `eu-west-1` 지역의 서로 다른 3개 가용영역에서 들어오는 트래픽에 대한 가중치 기반 구성을 지정합니다. 이러한 구성은 특정 가용영역에서 들어오는 트래픽의 대부분 (이 경우 70%) 을 해당 트래픽이 발생한 동일한 가용영역의 대상으로 프록시해야 한다고 선언합니다.
```yaml hl_lines="7-11"
apiVersion: networking.istio.io/v1beta1
kind: DestinationRule
metadata:
name: express-test-dr
spec:
host: express-test.default.svc.cluster.local
trafficPolicy:
loadBalancer:
localityLbSetting:
distribute:
- from: eu-west-1/eu-west-1a/
to:
"eu-west-1/eu-west-1a/*": 70
"eu-west-1/eu-west-1b/*": 20
"eu-west-1/eu-west-1c/*": 10
- from: eu-west-1/eu-west-1b/*
to:
"eu-west-1/eu-west-1a/*": 20
"eu-west-1/eu-west-1b/*": 70
"eu-west-1/eu-west-1c/*": 10
- from: eu-west-1/eu-west-1c/*
to:
"eu-west-1/eu-west-1a/*": 20
"eu-west-1/eu-west-1b/*": 10
"eu-west-1/eu-west-1c/*": 70**
connectionPool:
http:
http2MaxRequests: 10
maxRequestsPerConnection: 10
outlierDetection:
consecutiveGatewayErrors: 1
interval: 1m
baseEjectionTime: 30s
```
!!! note
목적지에 분배할 수 있는 최소 가중치는 1% 입니다. 그 이유는 주 대상의 엔드포인트가 정상이 아니거나 사용할 수 없게 되는 경우에 대비하여 장애 조치 리전 및 가용영역을 유지하기 위함입니다.
아래 다이어그램은 _eu-west-1_ 지역에 고가용성 로드 밸런서가 있고 지역 가중 분배가 적용되는 시나리오를 보여줍니다. 이 다이어그램의 대상 규칙 정책은 _eu-west-1a_ 에서 들어오는 트래픽의 60% 를 동일한 AZ의 파드로 전송하도록 구성되어 있는 반면, _eu-west-1a_ 의 트래픽 중 40% 는 eu-west-1b의 파드로 이동해야 한다.
![Istio Traffic Control](../images/istio-traffic-control.png)
### 가용 영역 및 노드로의 트래픽 제한
**Istio에서 서비스 내부 트래픽 정책 사용**
파드 간의 _외부_ 수신 트래픽 및 _내부_ 트래픽과 관련된 네트워크 비용을 줄이기 위해 Istio의 대상 규칙과 쿠버네티스 서비스의 _내부 트래픽 정책_ 을 결합할 수 있습니다. Istio 목적지 규칙을 서비스 내부 트래픽 정책과 결합하는 방법은 크게 다음 세 가지 요소에 따라 달라집니다.
* 마이크로서비스의 역할
* 마이크로서비스 전반의 네트워크 트래픽 패턴
* 쿠버네티스 클러스터 토폴로지 전반에 마이크로서비스를 배포하는 방법
아래 다이어그램은 중첩된 요청의 경우 네트워크 흐름이 어떻게 표시되는지와 앞서 언급한 정책이 트래픽을 제어하는 방식을 보여줍니다.
![External and Internal traffic policy](../images/external-and-internal-traffic-policy.png)
1. 최종 사용자가 **앱 A**에 요청을 보내고, 이 요청은 다시 **앱 C**에 중첩된 요청을 보냅니다. 이 요청은 먼저 가용성이 뛰어난 로드 밸런서로 전송됩니다. 이 로드 밸런서는 위 다이어그램에서 볼 수 있듯이 AZ 1과 AZ 2에 인스턴스가 있습니다.
2. 그런 다음 외부 수신 요청은 Istio 가상 서비스에 의해 올바른 대상으로 라우팅됩니다.
3. 요청이 라우팅된 후 Istio 대상 규칙은 트래픽이 시작된 위치 (AZ 1 또는 AZ 2) 를 기반으로 각 AZ로 이동하는 트래픽 양을 제어합니다.
4. 그런 다음 트래픽은**앱 A**용 서비스로 이동한 다음 각 Pod 엔드포인트로 프록시됩니다. 다이어그램에서 볼 수 있듯이 수신 트래픽의 80% 는 AZ 1의 파드 엔드포인트로 전송되고, 수신 트래픽의 20% 는 AZ 2로 전송됩니다.
5. 그런 다음 **앱 A**가 내부적으로 **앱 C**에 요청을 보냅니다. **앱 C**의 서비스에는 내부 트래픽 정책이 활성화되어 있습니다(`내부 트래픽 정책``: 로컬`).
6. **앱 C**에 사용할 수 있는 노드-로컬 엔드포인트가 있기 때문에 **앱 A** (*노드 1*)에서 **앱 C**로의 내부 요청이 성공했습니다.
7. **앱 C**에 사용할 수 있는 _노드-로컬 엔드포인트_ 가 없기 때문에 **앱 A** (*노드 3)에서 **앱 C**에 대한 내부 요청이 실패합니다. 다이어그램에서 볼 수 있듯이 앱 C의 노드 3에는 복제본이 없습니다.****
아래 스크린샷은 이 접근법의 실제 예에서 캡처한 것입니다. 첫 번째 스크린샷 세트는 'graphql'에 대한 성공적인 외부 요청과 'graphql'에서 노드 `ip-10-0-151.af-south-1.compute.internal` 노드에 같은 위치에 있는 `orders` 복제본으로의 성공적인 중첩 요청을 보여줍니다.
![Before](../images/before.png)
![Before results](../images/before-results.png)
Istio를 사용하면 프록시가 인식하는 모든 [업스트림 클러스터](https://www.envoyproxy.io/docs/envoy/latest/intro/arch_overview/intro/terminology) 및 엔드포인트의 통계를 확인하고 내보낼 수 있습니다. 이를 통해 네트워크 흐름과 워크로드 서비스 간의 분산 점유율을 파악할 수 있습니다. 같은 예제를 계속하면, 다음 명령을 사용하여 `graphql` 프록시가 인식하는 `orders` 엔드포인트를 가져올 수 있습니다.
```bash
kubectl exec -it deploy/graphql -n ecommerce -c istio-proxy -- curl localhost:15000/clusters | grep orders
```
```bash
...
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**rq_error::0**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**rq_success::119**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**rq_timeout::0**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**rq_total::119**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**health_flags::healthy**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**region::af-south-1**
orders-service.ecommerce.svc.cluster.local::10.0.1.33:3003::**zone::af-south-1b**
...
```
이 경우, `graphql` 프록시는 노드를 공유하는 복제본의 `orders` 엔드포인트만 인식합니다. 주문 서비스에서 `InternalTrafficPolicy: Local` 설정을 제거하고 위와 같은 명령을 다시 실행하면 결과는 서로 다른 노드에 분산된 복제본의 모든 엔드포인트를 반환합니다. 또한 각 엔드포인트의 `rq_total`을 살펴보면 네트워크 분배에서 비교적 균일한 점유율을 확인할 수 있습니다. 따라서 엔드포인트가 서로 다른 가용영역에서 실행되는 업스트림 서비스와 연결된 경우 여러 영역에 네트워크를 분산하면 비용이 더 많이 듭니다.
위의 이전 섹션에서 언급한 바와 같이, 파드 어피니티를 활용하여 자주 통신하는 파드를 같은 위치에 배치할 수 있다.
```yaml hl_lines="11-20"
...
spec:
...
template:
metadata:
labels:
app: graphql
role: api
workload: ecommerce
spec:
affinity:
podAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app
operator: In
values:
- orders
topologyKey: "kubernetes.io/hostname"
nodeSelector:
managedBy: karpenter
billing-team: ecommerce
...
```
`graphql`과 `orders` 복제본이 동일한 노드에 공존하지 않는 경우 (`ip-10-0-0-151.af-south-1.compute.internal`), 아래 포스트맨 스크린샷의 `200 응답 코드`에서 알 수 있듯이 `graphql`에 대한 첫 번째 요청은 성공하지만, `graphql`에서 `orders`로의 두 번째 중첩 요청은 `503 응답 코드`로 실패합니다.
![After](../images/after.png)
![After results](../images/after-results.png)
## 추가 리소스
* [Istio를 사용하여 EKS의 지연 시간 및 데이터 전송 비용 해결](https://aws.amazon.com/blogs/containers/addressing-latency-and-data-transfer-costs-on-eks-using-istio/)
* [Amazon EKS의 네트워크 트래픽에 대한 토폴로지 인식 힌트의 효과 살펴보기](https://aws.amazon.com/blogs/containers/exploring-the-effect-of-topology-aware-hints-on-network-traffic-in-amazon-elastic-kubernetes-service/)
* [Amazon EKS 크로스 가용영역 파드 및 파드 네트워크 바이트에 대한 가시성 확보](https://aws.amazon.com/blogs/containers/getting-visibility-into-your-amazon-eks-cross-az-pod-to-pod-network-bytes/)
* [Istio로 가용영역 트래픽을 최적화하세요](https://youtu.be/EkpdKVm9kQY)
* [토폴로지 인식 라우팅으로 가용영역 트래픽 최적화](https://youtu.be/KFgE_lNVfz4)
* [서비스 내부 트래픽 정책을 통한 쿠버네티스 비용 및 성능 최적화](https://youtu.be/-uiF_zixEro)
* [Istio 및 서비스 내부 트래픽 정책으로 쿠버네티스 비용 및 성능을 최적화합니다.](https://youtu.be/edSgEe7Rihc)
* [공통 아키텍처의 데이터 전송 비용 개요](https://aws.amazon.com/blogs/architecture/overview-of-data-transfer-costs-for-common-architectures/)
* [AWS 컨테이너 서비스의 데이터 전송 비용 이해](https://aws.amazon.com/blogs/containers/understanding-data-transfer-costs-for-aws-container-services/) | eks | search exclude true HA AWS AZ Amazon EKS EKS VPC ELB ECR EKS Amazon EKS HA AZ EKS https aws amazon com blogs containers getting visibility into your amazon eks cross az pod to pod network bytes Topology Aware Routing Topology Aware Hint Topology aware routing images topo aware routing png Topology Aware Routing EndpointSlices kube proxy EndpointSlices EndpointSlice kube proxy EndpointSlices Topology aware routing https kubernetes io docs concepts services networking topology aware routing EndpointSlices EndpointSlices kube proxy kube proxy EndpointSlice Endpoint Slice images endpoint slice png EndPointSlice yaml hl lines 6 7 apiVersion v1 kind Service metadata name orders service namespace ecommerce annotations service kubernetes io topology mode Auto spec selector app orders type ClusterIP ports protocol TCP port 3003 targetPort 3003 EndpointSlices eu west 1a Slice shell images slice shell png note Topology aware routing https kubernetes io docs concepts scheduling eviction topology spread constraints Cluster Autoscaler CA https github com kubernetes autoscaler tree master cluster autoscaler Karpenter https karpenter sh topology kubernetes io zone http topology kubernetes io zone E2 80 9D us west 2a Karpenter yaml hl lines 5 9 apiVersion karpenter sh v1alpha5 kind Provisioner metadata name single az spec requirements key topology kubernetes io zone operator In values us west 2a Cluster Autoscaler CA yaml hl lines 7 8 apiVersion eksctl io v1alpha5 kind ClusterConfig metadata name my ca cluster region us east 1 version 1 21 availabilityZones us east 1a managedNodeGroups name managed nodes labels role managed nodes instanceType t3 medium minSize 1 maxSize 10 desiredCapacity 1 us west 2a us west 2b topology kubernetes io zone http topology kubernetes io zone E2 80 9D nodeSelector nodeAffinity us west 2a yaml hl lines 7 9 apiVersion v1 kind Pod metadata name nginx labels env test spec nodeSelector topology kubernetes io zone us west 2a containers name nginx image nginx imagePullPolicy IfNotPresent A HA 1 B 1 A 2 B 2 AZ https kubernetes io docs concepts services networking service traffic policy HA A AZ B local note Local internal traffic images local traffic png yaml hl lines 14 apiVersion v1 kind Service metadata name orders service namespace ecommerce spec selector app orders type ClusterIP ports protocol TCP port 3003 targetPort 3003 internalTrafficPolicy Local https kubernetes io docs concepts scheduling eviction topology spread constraints https kubernetes io docs concepts scheduling eviction assign pod node inter pod affinity and anti affinity A 2 B 3 A 1 2 B 3 local node local no peer images no node local 1 png B 1 2 3 2 B node local with peer images no node local 2 png note yaml hl lines 16 22 apiVersion apps v1 kind Deployment metadata name express test spec replicas 6 selector matchLabels app express test template metadata labels app express test tier backend spec topologySpreadConstraints maxSkew 1 topologyKey topology kubernetes io zone whenUnsatisfiable ScheduleAnyway labelSelector matchLabels app express test RequiredDuringSchedulingExecutionDuringExecutionDuringIgnored yaml hl lines 11 20 apiVersion apps v1 kind Deployment metadata name graphql namespace ecommerce labels app kubernetes io version 0 1 6 spec serviceAccountName graphql service account affinity podAffinity requiredDuringSchedulingIgnoredDuringExecution labelSelector matchExpressions key app operator In values orders topologyKey kubernetes io hostname EKS EKS AWS Load Balancer Controller https kubernetes sigs github io aws load balancer controller ELB ALB NLB AWS Load Balancer Controller IP EKS NodePort NodePort AZ kube proxy AZ kube proxy NodePort kube proxy AZ LB to Pod images lb 2 pod png IP tip IP VPC IP IP mode images ip mode png Amazon ECR Amazon ECR ECR https docs aws amazon com AmazonECR latest userguide replication html VPC https docs aws amazon com whitepapers latest aws privatelink what are vpc endpoints html ECR ECR NAT ECR AWS AWS Amazon AMI EKS AWS AWS NAT NAT NAT AWS Amazon ECR DynamoDB S3 EKS NAT IP IP NAT NAT Gateway images nat gw png NAT AZ NAT AZ NAT AZ AZ NAT Recommended approach images recommended approach png VPC VPC https docs aws amazon com whitepapers latest aws privatelink what are vpc endpoints html AWS VPC VPC AWS AWS VPC VPC AWS https docs aws amazon com vpc latest privatelink aws services privatelink support html VPC S3 DynamoDB VPC VPC VPC VPC VPC VPN Direct Connect VPC VPC https aws amazon com privatelink pricing AWS ENI VPC VPC AWS VPC VPC VPC AWS VPC Endpoints images vpc endpoints png VPC VPC AWS VPC EC2 NAT NAT VPC VPC AZ NAT VPC Between VPCs images between vpcs png VPC VPC https docs aws amazon com vpc latest peering what is vpc peering html VPC AZ AZ AWS VPC VPC VPC 1 1 VPC VPC Peering images peering png Transitive VPC VPC 3 Transit Gateway TGW https docs aws amazon com vpc latest tgw what is transit gateway html VPC VPC VPC TGW https aws amazon com transit gateway pricing TGW AWS VPC TGW Transitive images transititive png EKS Istio Istio https istio io latest docs tasks traffic management locality load balancing distribute Destination Rules https istio io latest docs reference config networking destination rule https www envoyproxy io docs envoy latest intro arch overview upstream load balancing locality weight html note AWS X Ray https aws amazon com xray Jaeger https www jaegertracing io Istio EKS Ingress Istio eu west 1 3 70 yaml hl lines 7 11 apiVersion networking istio io v1beta1 kind DestinationRule metadata name express test dr spec host express test default svc cluster local trafficPolicy loadBalancer localityLbSetting distribute from eu west 1 eu west 1a to eu west 1 eu west 1a 70 eu west 1 eu west 1b 20 eu west 1 eu west 1c 10 from eu west 1 eu west 1b to eu west 1 eu west 1a 20 eu west 1 eu west 1b 70 eu west 1 eu west 1c 10 from eu west 1 eu west 1c to eu west 1 eu west 1a 20 eu west 1 eu west 1b 10 eu west 1 eu west 1c 70 connectionPool http http2MaxRequests 10 maxRequestsPerConnection 10 outlierDetection consecutiveGatewayErrors 1 interval 1m baseEjectionTime 30s note 1 eu west 1 eu west 1a 60 AZ eu west 1a 40 eu west 1b Istio Traffic Control images istio traffic control png Istio Istio Istio External and Internal traffic policy images external and internal traffic policy png 1 A C AZ 1 AZ 2 2 Istio 3 Istio AZ 1 AZ 2 AZ 4 A Pod 80 AZ 1 20 AZ 2 5 A C C 6 C A 1 C 7 C A 3 C C 3 graphql graphql ip 10 0 151 af south 1 compute internal orders Before images before png Before results images before results png Istio https www envoyproxy io docs envoy latest intro arch overview intro terminology graphql orders bash kubectl exec it deploy graphql n ecommerce c istio proxy curl localhost 15000 clusters grep orders bash orders service ecommerce svc cluster local 10 0 1 33 3003 rq error 0 orders service ecommerce svc cluster local 10 0 1 33 3003 rq success 119 orders service ecommerce svc cluster local 10 0 1 33 3003 rq timeout 0 orders service ecommerce svc cluster local 10 0 1 33 3003 rq total 119 orders service ecommerce svc cluster local 10 0 1 33 3003 health flags healthy orders service ecommerce svc cluster local 10 0 1 33 3003 region af south 1 orders service ecommerce svc cluster local 10 0 1 33 3003 zone af south 1b graphql orders InternalTrafficPolicy Local rq total yaml hl lines 11 20 spec template metadata labels app graphql role api workload ecommerce spec affinity podAffinity requiredDuringSchedulingIgnoredDuringExecution labelSelector matchExpressions key app operator In values orders topologyKey kubernetes io hostname nodeSelector managedBy karpenter billing team ecommerce graphql orders ip 10 0 0 151 af south 1 compute internal 200 graphql graphql orders 503 After images after png After results images after results png Istio EKS https aws amazon com blogs containers addressing latency and data transfer costs on eks using istio Amazon EKS https aws amazon com blogs containers exploring the effect of topology aware hints on network traffic in amazon elastic kubernetes service Amazon EKS https aws amazon com blogs containers getting visibility into your amazon eks cross az pod to pod network bytes Istio https youtu be EkpdKVm9kQY https youtu be KFgE lNVfz4 https youtu be uiF zixEro Istio https youtu be edSgEe7Rihc https aws amazon com blogs architecture overview of data transfer costs for common architectures AWS https aws amazon com blogs containers understanding data transfer costs for aws container services |
eks IP exclude true search | ---
search:
exclude: true
---
# IP 주소 사용 최적화
애플리케이션 현대화로 인하여 컨테이너화된 환경의 규모가 빠른 속도로 증가하고 있습니다. 이는 점점 더 많은 워커 노드와 파드가 배포되고 있음을 의미합니다.
[아마존 VPC CNI](../vpc-cni/) 플러그인은 각 파드에 VPC CIDR의 IP 주소를 할당합니다. 이 접근 방식은 VPC flow logs 및 기타 모니터링 솔루션과 같은 도구를 사용하여 파드 주소를 완벽하게 파악할 수 있도록 합니다. 이로 인해 워크로드 유형에 따라 파드에서 상당한 수의 IP 주소를 사용할 수 있습니다.
AWS 네트워킹 아키텍처를 설계할 때는 VPC와 노드 수준에서 Amazon EKS IP 사용을 최적화하는 것이 중요합니다. 이렇게 하면 IP 고갈 문제를 완화하고 노드당 파드 밀도를 높이는 데 도움이 됩니다.
이 섹션에서는 이러한 목표를 달성하는 데 도움이 될 수 있는 기술에 대해 설명합니다.
## 노드 레벨 IP 소비 최적화
[접두사(Prefix) 위임](https://docs.aws.amazon.com/eks/latest/userguide/cni-increase-ip-addresses.html) 은 Amazon Virtual Private Cloud(Amazon VPC) 의 기능으로, 이를 통해 Amazon Elastic Compute Cloud (Amazon EC2) 인스턴스에 IPv4 또는 IPv6 접두사를 할당할 수 있습니다. 네트워크 인터페이스당 IP 주소(ENI)가 증가하여 노드당 파드 밀도가 증가하고 컴퓨팅 효율성이 향상됩니다. 사용자 지정 네트워킹에서는 접두사 위임도 지원됩니다.
자세한 내용은 [Linux 노드를 사용한 접두사 위임](../prefix-mode/index_linux/) 및 [윈도우 노드를 사용한 프리픽스 위임](../prefix-mode/index_windows/) 섹션을 참조하십시오.
## IP 소진 완화
클러스터가 사용 가능한 IP 주소를 모두 사용하지 않도록 하려면 성장을 염두에 두고 VPC와 서브넷의 크기를 조정하는 것이 좋습니다.
[IPv6](../ipv6/) 채택은 이러한 문제를 처음부터 방지할 수 있는 좋은 방법입니다. 그러나 확장성 요구 사항이 초기 계획을 초과하여 IPv6을 채택할 수 없는 조직의 경우 IP 주소 고갈에 대한 대응책으로 VPC 설계를 개선하는 것이 좋습니다. Amazon EKS 고객이 가장 일반적으로 사용하는 방법은 라우팅이 불가능한 보조 CIDR을 VPC에 추가하고 IP 주소를 Pod에 할당할 때 이 추가 IP 공간을 사용하도록 VPC CNI를 구성하는 것입니다. 이를 일반적으로 [사용자 지정 네트워킹](../custom-networking/)이라고 합니다.
노드에 할당된 IP 웜 풀을 최적화하는 데 사용할 수 있는 Amazon VPC CNI 변수에 대해 알아보겠습니다. Amazon EKS에 고유하지는 않지만 IP 고갈을 완화하는 데 도움이 될 수 있는 몇 가지 다른 아키텍처 패턴에 대해 설명하면서 이 섹션을 마치겠습니다.
### IPv6 사용 (권장사항)
IPv6을 채택하는 것이 RFC1918 제한을 해결하는 가장 쉬운 방법입니다. 네트워크 아키텍처를 선택할 때는 IPv6을 첫 번째 옵션으로 채택하는 것이 좋습니다. IPv6은 총 IP 주소 공간이 훨씬 더 넓기 때문에 클러스터 관리자는 IPv4 제한을 우회하는 데 노력을 기울이지 않고도 애플리케이션을 마이그레이션하고 확장하는 데 집중할 수 있습니다.
Amazon EKS 클러스터는 IPv4와 IPv6을 모두 지원합니다. 기본적으로 EKS 클러스터는 IPv4 주소 공간을 사용합니다. 클러스터 생성 시 IPv6 기반 주소 공간을 지정하면 IPv6을 사용할 수 있습니다. IPv6 EKS 클러스터에서 파드와 서비스는 IPv6 주소를 수신하며, **레거시 IPv4 엔드포인트를 IPv6 클러스터에서 실행되는 서비스에 연결하는 기능을 유지하며 그 반대의 경우도 마찬가지입니다**. 클러스터 내의 모든 파드 간 통신은 항상 IPv6을 통해 이루어집니다. VPC(/56)내에서 IPv6 서브넷의 IPv6 CIDR 블록 크기는 /64로 고정됩니다.이는 2^64(약 18억)의 IPv6 주소를 제공하므로 EKS에서 배포를 확장할 수 있습니다.
자세한 내용은 [IPv6 EKS 클러스터 실행](../ipv6/) 섹션을 참조하십시오. 핸즈온 실습은 [IPv6 실습 워크숍](https://catalog.workshops.aws/ipv6-on-aws/en-US) 내에 [Amazon EKS에서의 IPv6에 대한 이해](https://catalog.workshops.aws/ipv6-on-aws/en-US/lab-6) 섹션을 참조하십시오.
![EKS Cluster in IPv6 Mode, traffic flow](./ipv6.gif)
### IPv4 클러스터의 IP 사용 최적화
이 섹션은 기존 애플리케이션을 실행 중이거나 IPv6으로 마이그레이션할 준비가 되지 않은 고객을 대상으로 합니다. 모든 조직이 가능한 한 빨리 IPv6으로 마이그레이션하도록 권장하고 있지만 일부 조직에서는 IPv4로 컨테이너 워크로드를 확장하기 위한 대체 접근 방식을 모색해야 할 수도 있다는 점을 알고 있습니다. 이러한 이유로 Amazon EKS 클러스터를 사용하여 IPv4 (RFC1918) 주소 공간 소비를 최적화하는 아키텍처 패턴도 소개합니다.
#### 확장을 위한 계획
IP 고갈에 대한 첫 번째 방어선으로서 클러스터가 사용 가능한 IP 주소를 모두 소비하지 않도록 성장을 염두에 두고 IPv4 VPC와 서브넷의 크기를 조정하는 것이 좋습니다. 서브넷에 사용 가능한 IP 주소가 충분하지 않으면 새 파드나 노드를 생성할 수 없습니다.
VPC와 서브넷을 구축하기 전에 필요한 워크로드 규모에서 역방향으로 작업하는 것이 좋습니다.예를 들어 [eksctl](https://eksctl.io/)(EKS에서 클러스터를 생성하고 관리하기 위한 간단한 CLI 도구)를 사용하여 클러스터를 구축하면 기본적으로 19개의 서브넷이 생성됩니다. /19의 넷마스크는 8000개 이상의 주소를 할당할 수 있는 대부분의 워크로드 유형에 적합합니다.
!!! attention
VPC와 서브넷의 크기를 조정할 때 IP 주소를 소비할 수 있는 요소 (예: 로드 밸런서, RDS 데이터베이스 및 기타 vpc 내 서비스) 가 여러 개 있을 수 있습니다.
또한 Amazon EKS는 컨트롤 플레인과의 통신을 허용하는 데 필요한 최대 4개의 엘라스틱 네트워크 인터페이스(X-ENI)를 생성할 수 있습니다. (자세한 내용은 [다음 문서](../subnets/)를 참고하세요.) 클러스터 업그레이드 중에 Amazon EKS는 새 X-ENI를 생성하고 업그레이드가 성공하면 이전 X-ENI를 삭제합니다. 따라서 EKS 클러스터와 연결된 서브넷의 경우 최소 /28 (16개의 IP 주소)의 넷마스크를 사용하는 것이 좋습니다.
[샘플 EKS 서브넷 계산기](../subnet-calc/subnet-calc.xlsx) 스프레드시트를 사용하여 네트워크를 계획할 수 있습니다. 스프레드시트는 워크로드 및 VPC ENI 구성을 기반으로 IP 사용량을 계산합니다. IP 사용량을 IPv4 서브넷과 비교하여 구성 및 서브넷 크기가 워크로드에 충분한지 확인합니다. VPC의 서브넷에 사용 가능한 IP 주소가 부족할 경우 VPC의 원래 CIDR 블록을 사용하여 [새 서브넷을 생성](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-subnets.html#create-subnets)하는 것이 좋습니다. 이제 [Amazon EKS에서 클러스터 서브넷 및 보안 그룹을 수정](https://aws.amazon.com/about-aws/whats-new/2023/10/amazon-eks-modification-cluster-subnets-security/)할 수 있는 점에 유의하세요.
#### IP 공간 확장
RFC1918 IP 공간을 거의 사용한 경우 [커스텀 네트워킹](../custom-networking/) 패턴을 사용하여 전용 추가 서브넷 내에서 파드를 스케줄링하여 라우팅 가능한 IP를 절약할 수 있습니다.
커스텀 네트워킹은 추가 CIDR 범위에 모든 유효한 VPC 범위를 허용하지만, CG-NAT (Carrier-Grade NAT, RFC 6598) 공간의 CIDR (/16)을 사용하는 것을 추천합니다. (예: `100.64.0.0/10` 또는 `198.19.0.0/16`) 이는 RFC1918 범위보다 기업 환경에서 사용될 가능성이 적기 때문입니다.
자세한 내용은 [Custom 네트워킹](../custom-networking/) 문서를 참조하십시오.
![Custom Networking, traffic flow](./custom-networking.gif)
#### IP 웜 풀 최적화
기본 구성을 사용하면 VPC CNI가 전체 ENI(및 관련 IP)를 웜 풀에 보관합니다. 이로 인해 특히 대규모 인스턴스 유형에서 많은 IP가 소모될 수 있습니다.
클러스터 서브넷의 사용 가능한 IP 주소 수가 제한되어 있는 경우 다음 VPC CNI 구성 환경 변수를 자세히 살펴보십시오:
* `WARM_IP_TARGET`
* `MINIMUM_IP_TARGET`
* `WARM_ENI_TARGET`
노드에서 실행할 것으로 예상되는 파드의 수와 거의 일치하도록 `MINIMUM_IP_TARGET` 값을 구성할 수 있습니다. 이렇게 하면 파드가 생성되고 CNI는 EC2 API를 호출하지 않고도 웜 풀에서 IP 주소를 할당할 수 있습니다.
`WARM_IP_TARGET` 값을 너무 낮게 설정하면 EC2 API에 대한 추가 호출이 발생하고 이로 인해 요청이 병목 현상이 발생할 수 있다는 점에 유의하시기 바랍니다. 대규모 클러스터의 경우 요청의 병목 현상을 피하려면 `MINIMUM_IP_TARGET`과 함께 사용하십시오.
이러한 옵션을 구성하려면 `aws-k8s-cni.yaml` 매니페스트를 다운로드하고 환경 변수를 설정하면 됩니다. 이 글을 쓰는 시점에서 최신 릴리스는 [다음 링크](https://github.com/aws/amazon-vpc-cni-k8s/blob/master/config/master/aws-k8s-cni.yaml)를 참조하세요. 구성 값의 버전이 설치된 VPC CNI 버전과 일치하는지 확인하세요.
!!! Warning
CNI를 업데이트하면 이러한 설정이 기본값으로 재설정됩니다. 업데이트하기 전에 CNI를 백업해 두세요. 구성 설정을 검토하여 업데이트가 성공한 후 다시 적용해야 하는지 결정하십시오.
기존 애플리케이션을 다운타임 없이 즉시 CNI 파라미터를 조정할 수 있지만 확장성 요구 사항을 지원하는 값을 선택해야 합니다. 예를 들어, 배치 워크로드로 작업하는 경우 파드 스케일 요구 사항에 맞게 기본 `WARM_ENI_TARGET`으로 업데이트하는 것이 좋다. `WARM_ENI_TARGET`을 높은 값으로 설정하면 대규모 배치 워크로드를 실행하는 데 필요한 웜 IP 풀을 항상 유지하므로 데이터 처리 지연을 피할 수 있습니다.
!!! warning
IP 주소 고갈에 대한 대응책은 VPC 설계를 개선하는 것이 좋습니다. IPv6 및 보조 CIDR과 같은 솔루션을 고려해 보십시오. 다른 옵션을 제외한 후에는 이러한 값을 조정하여 웜 IP 수를 최소화하는 것이 일시적인 해결책이 될 수 있습니다. 이러한 값을 잘못 구성하면 클러스터 작동에 방해가 될 수 있습니다.
**프로덕션 시스템을 변경하기 전에** [이 페이지](https://github.com/aws/amazon-vpc-cni-k8s/blob/master/docs/eni-and-ip-target.md)의 고려 사항을 반드시 검토하십시오.
#### IP 주소 인벤토리 모니터링
위에서 설명한 솔루션 외에도 IP 활용도를 파악하는 것도 중요합니다. [CNI 메트릭 헬퍼](https://docs.aws.amazon.com/eks/latest/userguide/cni-metrics-helper.html)를 사용하여 서브넷의 IP 주소 인벤토리를 모니터링할 수 있습니다. 사용 가능한 일부 메트릭은 다음과 같습니다.
* 클러스터가 지원할 수 있는 최대 ENI 수
* 이미 할당된 ENI 수
* 현재 파드에 할당된 IP 주소 수
* 사용 가능한 전체 및 최대 IP 주소 수
서브넷의 IP 주소가 부족할 경우 알림을 받도록 [CloudWatch 알람](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html)을 설정할 수도 있습니다. [CNI 메트릭 헬퍼](https://docs.aws.amazon.com/eks/latest/userguide/cni-metrics-helper.html)의 설치 지침은 EKS 사용 설명서를 참조하십시오.
!!! warning
VPC CNI의 `DISABLE_METRICS` 변수가 false로 설정되어 있는지 확인하십시오.
#### 추가 고려 사항
Amazon EKS에 고유하지 않은 다른 아키텍처 패턴도 IP 고갈에 도움이 될 수 있습니다. 예를 들어 [VPC 간 통신을 최적화](../subnets/#communication-across-vpcs)하거나 [여러 계정에서 VPC 공유](../subnets/#sharing-vpc-across-multiple-accounts)를 사용하여 IPv4 주소 할당을 제한합니다.
여기에서 이러한 패턴에 대해 자세히 알아보세요.
* [하이퍼스케일 아마존 VPC 네트워크 설계](https://aws.amazon.com/blogs/networking-and-content-delivery/designing-hyperscale-amazon-vpc-networks/),
* [Amazon VPC Lattice를 사용하여 안전한 다중 계정 다중 VPC 연결 구축](https://aws.amazon.com/blogs/networking-and-content-delivery/build-secure-multi-account-multi-vpc-connectivity-for-your-applications-with-amazon-vpc-lattice/). | eks | search exclude true IP VPC CNI vpc cni VPC CIDR IP VPC flow logs IP AWS VPC Amazon EKS IP IP IP Prefix https docs aws amazon com eks latest userguide cni increase ip addresses html Amazon Virtual Private Cloud Amazon VPC Amazon Elastic Compute Cloud Amazon EC2 IPv4 IPv6 IP ENI Linux prefix mode index linux prefix mode index windows IP IP VPC IPv6 ipv6 IPv6 IP VPC Amazon EKS CIDR VPC IP Pod IP VPC CNI custom networking IP Amazon VPC CNI Amazon EKS IP IPv6 IPv6 RFC1918 IPv6 IPv6 IP IPv4 Amazon EKS IPv4 IPv6 EKS IPv4 IPv6 IPv6 IPv6 EKS IPv6 IPv4 IPv6 IPv6 VPC 56 IPv6 IPv6 CIDR 64 2 64 18 IPv6 EKS IPv6 EKS ipv6 IPv6 https catalog workshops aws ipv6 on aws en US Amazon EKS IPv6 https catalog workshops aws ipv6 on aws en US lab 6 EKS Cluster in IPv6 Mode traffic flow ipv6 gif IPv4 IP IPv6 IPv6 IPv4 Amazon EKS IPv4 RFC1918 IP IP IPv4 VPC IP VPC eksctl https eksctl io EKS CLI 19 19 8000 attention VPC IP RDS vpc Amazon EKS 4 X ENI subnets Amazon EKS X ENI X ENI EKS 28 16 IP EKS subnet calc subnet calc xlsx VPC ENI IP IP IPv4 VPC IP VPC CIDR https docs aws amazon com vpc latest userguide working with subnets html create subnets Amazon EKS https aws amazon com about aws whats new 2023 10 amazon eks modification cluster subnets security IP RFC1918 IP custom networking IP CIDR VPC CG NAT Carrier Grade NAT RFC 6598 CIDR 16 100 64 0 0 10 198 19 0 0 16 RFC1918 Custom custom networking Custom Networking traffic flow custom networking gif IP VPC CNI ENI IP IP IP VPC CNI WARM IP TARGET MINIMUM IP TARGET WARM ENI TARGET MINIMUM IP TARGET CNI EC2 API IP WARM IP TARGET EC2 API MINIMUM IP TARGET aws k8s cni yaml https github com aws amazon vpc cni k8s blob master config master aws k8s cni yaml VPC CNI Warning CNI CNI CNI WARM ENI TARGET WARM ENI TARGET IP warning IP VPC IPv6 CIDR IP https github com aws amazon vpc cni k8s blob master docs eni and ip target md IP IP CNI https docs aws amazon com eks latest userguide cni metrics helper html IP ENI ENI IP IP IP CloudWatch https docs aws amazon com AmazonCloudWatch latest monitoring AlarmThatSendsEmail html CNI https docs aws amazon com eks latest userguide cni metrics helper html EKS warning VPC CNI DISABLE METRICS false Amazon EKS IP VPC subnets communication across vpcs VPC subnets sharing vpc across multiple accounts IPv4 VPC https aws amazon com blogs networking and content delivery designing hyperscale amazon vpc networks Amazon VPC Lattice VPC https aws amazon com blogs networking and content delivery build secure multi account multi vpc connectivity for your applications with amazon vpc lattice |
eks Elastic Load Balancer Kubernetes search exclude true Kubernetes AWS | ---
search:
exclude: true
---
# Kubernetes 애플리케이션 및 AWS 로드밸런서를 통한 오류 및 타임아웃 방지
필요한 쿠버네티스 리소스 (서비스, 디플로이먼트, 인그레스 등) 를 생성한 후, 파드는 Elastic Load Balancer를 통해 클라이언트로부터 트래픽을 수신할 수 있어야 합니다. 하지만 애플리케이션 또는 Kubernetes 환경을 변경할 때 오류, 시간 초과 또는 연결 재설정이 생성될 수 있습니다. 이런 변경으로 인해 애플리케이션 배포 또는 조정 작업 (수동 또는 자동) 이 트리거될 수 있습니다.
안타깝게도 이런 오류는 애플리케이션이 문제를 기록하지 않는 경우에도 생성될 수 있습니다. 클러스터의 리소스를 제어하는 Kubernetes 시스템이 로드밸런서의 대상 등록 및 상태를 제어하는 AWS 시스템보다 빠르게 실행될 수 있기 때문입니다. 애플리케이션이 요청을 수신할 준비가 되기 전에 파드가 트래픽을 수신하기 시작할 수도 있습니다.
파드가 Ready 상태가 되는 프로세스와 트래픽을 파드로 라우팅하는 방법을 살펴보겠습니다.
## 파드 Readiness
[2019 Kubecon talk](https://www.youtube.com/watch?v=Vw9GmSeomFg)에서 발췌한 이 다이어그램은 파드가 레디 상태가 되고 '로드밸런서' 서비스에 대한 트래픽을 수신하기 위해 거쳐진 단계를 보여준다.
*[Ready? A Deep Dive into Pod Readiness Gates for Service Health... - Minhan Xia & Ping Zou](https://www.youtube.com/watch?v=Vw9GmSeomFg)*
NodePort 서비스의 멤버인 파드가 생성되면 쿠버네티스는 다음 단계를 거칩니다.
1. 파드는 쿠버네티스 컨트롤 플레인 (즉, `kubectl` 명령 또는 스케일링 액션으로부터) 에서 생성됩니다.
2. 파드는 `kube-scheduler`에 의해 스케줄링되며 클러스터의 노드에 할당됩니다.
3. 할당된 노드에서 실행 중인 kubelet은 업데이트를 수신하고 ('watch'를 통해) 로컬 컨테이너 런타임과 통신하여 파드에 지정된 컨테이너를 시작한다.
1. 컨테이너가 실행을 시작하면 (그리고 선택적으로 `ReadinessProbes`만 전달하면), kubelet은 `kube-apiserver`로 업데이트를 전송하여 파드 상태를 `Ready`로 업데이트합니다.
4. 엔드포인트 컨트롤러는 ('watch'를 통해) 서비스의 엔드포인트 목록에 추가할 새 파드가 `Ready`라는 업데이트를 수신하고 적절한 엔드포인트 배열에 파드 IP/포트 튜플을 추가합니다.
5. `kube-proxy`는 서비스에 대한 iptables 규칙에 추가할 새 IP/포트가 있다는 업데이트 (`watch`를 통해) 를 수신한다.
1. 워커 노드의 로컬 iptables 규칙이 NodePort 서비스의 추가 대상 파드로 업데이트됩니다.
!!! 참조
인그레스 리소스와 인그레스 컨트롤러 (예: AWS 로드밸런서 컨트롤러) 를 사용하는 경우 5단계는 `kube-proxy` 대신 관련 컨트롤러에서 처리됩니다.그러면 컨트롤러는 필요한 구성 단계 (예: 로드밸런서에 대상 등록/등록 취소) 를 수행하여 트래픽이 예상대로 흐르도록 합니다.
[파드가 종료되거나](https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#pod-termination) 준비되지 않은 상태로 변경되는 경우에도 유사한 프로세스가 발생합니다. API 서버는 컨트롤러, kubelet 또는 kubectl 클라이언트로부터 업데이트를 수신하여 파드를 종료합니다. 3~5단계는 거기서부터 계속되지만, 엔드포인트 목록과 iptables 규칙에서 파드 IP/튜플을 삽입하는 대신 제거합니다.
### 배포에 미치는 영향
다음은 애플리케이션 배포로 인해 파드 교체가 트리거될 때 취해진 단계를 보여주는 다이어그램입니다:
*[Ready? A Deep Dive into Pod Readiness Gates for Service Health... - Minhan Xia & Ping Zou](https://www.youtube.com/watch?v=Vw9GmSeomFg)*
이 다이어그램에서 주목할 점은 첫 번째 파드가 "Ready" 상태에 도달할 때까지 두 번째 파드가 배포되지 않는다는 것입니다. 이전 섹션의 4단계와 5단계도 위의 배포 작업과 병행하여 수행됩니다.
즉, 디플로이먼트 컨트롤러가 다음 파드로 넘어갈 때 새 파드 상태를 전파하는 액션이 여전히 진행 중일 수 있습니다. 이 프로세스는 이전 버전의 파드도 종료하므로, 파드가 Ready 상태에 도달했지만 변경 사항이 계속 전파되고 이전 버전의 파드가 종료되는 상황이 발생할 수 있습니다.
위에서 설명한 Kubernetes 시스템은 기본적으로 로드밸런서의 등록 시간이나 상태 확인을 고려하지 않기 때문에 AWS와 같은 클라우드 공급자의 로드밸런서를 사용하면 이 문제가 더욱 악화됩니다. **즉 디플로이먼트 업데이트가 파드 전체에 걸쳐 완전히 순환될 수 있지만 로드밸런서가 상태 점검 수행 또는 새 파드 등록을 완료하지 않아 운영 중단이 발생할 수 있습니다.**
파드가 종료될 때도 비슷한 문제가 발생합니다. 로드밸런서 구성에 따라 파드의 등록을 취소하고 새 요청 수신을 중지하는 데 1~2분 정도 걸릴 수 있습니다. **쿠버네티스는 이런 등록 취소를 위해 롤링 디플로이먼트를 지연시키지 않으며, 이로 인해 로드밸런서가 이미 종료된 대상 파드의 IP/포트로 트래픽을 계속 보내는 상태로 이어질 수 있습니다.**
이런 문제를 방지하기 위해 Kubernetes 시스템이 AWS Load Balancer 동작에 더 부합하는 조치를 취하도록 구성을 추가할 수 있습니다.
## 권장 사항
### IP 대상 유형 로드밸런서 이용
`LoadBalancer` 유형의 서비스를 생성할 때, **인스턴스 대상 유형** 등록을 통해 로드밸런서에서 *클러스터의 모든 노드*로 트래픽이 전송됩니다. 그러면 각 노드가 'NodePort'의 트래픽을 서비스 엔드포인트 어레이의 파드/IP 튜플로 리디렉션합니다. 이 타겟은 별도의 워커 노드에서 실행될 수 있습니다.
!!! note
배열에는 "Ready" 파드만 있어야 한다는 점을 기억하세요.
이렇게 하면 요청에 홉이 추가되고 로드밸런서 구성이 복잡해집니다.예를 들어 위의 로드밸런서가 세션 어피니티로 구성된 경우 어피니티는 어피니티 구성에 따라 로드밸런서와 백엔드 노드 사이에만 유지될 수 있습니다.
로드밸런서가 백엔드 파드와 직접 통신하지 않기 때문에 쿠버네티스 시스템으로 트래픽 흐름과 타이밍을 제어하기가 더 어려워집니다.
[AWS 로드밸런서 컨트롤러](https://github.com/kubernetes-sigs/aws-load-balancer-controller)를 사용하는 경우, **IP 대상 유형**을 사용하여 파드 IP/포트 튜플을 로드밸런서에 직접 등록할 수 있습니다.
이는 로드밸런서에서 대상 파드로의 트래픽 경로를 단순화 합니다. 즉 새 대상이 등록되면 대상이 "Ready" 파드 IP 및 포트인지 확인할 수 있고, 로드밸런서의 상태 확인이 파드에 직접 전달되며, VPC 흐름 로그를 검토하거나 유틸리티를 모니터링할 때 로드밸런서와 파드 간의 트래픽을 쉽게 추적할 수 있습니다.
또한 IP 등록을 사용하면 `NodePort` 규칙을 통해 연결을 관리하는 대신 백엔드 파드에 대한 트래픽의 타이밍과 구성을 직접 제어할 수 있습니다.
### 파드 Readiness 게이트 활용
[파드 Readiness 게이트](https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#pod-readiness-gate) 는 파드가 "Ready" 상태에 도달하기 전에 충족되어야 하는 추가 요구사항이다.
>[[...] AWS Load Balancer 컨트롤러는 인그레스 또는 서비스 백엔드를 구성하는 파드에 대한 준비 조건을 설정할 수 있습니다. ALB/NLB 대상 그룹의 해당 대상의 상태가 "Healthy"로 표시되는 경우에만 파드의 조건 상태가 'True'로 설정됩니다. 이렇게 하면 새로 생성된 파드가 ALB/NLB 대상 그룹에서 "정상"으로 되어 트래픽을 받을 준비가 될 때까지 디플로이먼트의 롤링 업데이트가 기존 파드를 종료하지 않도록 한다.](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/deploy/pod_readiness_gate/)
Readiness 게이트는 배포 중에 새 복제본을 생성할 때 쿠버네티스가 "너무 빨리" 움직이지 않도록 하고 쿠버네티스는 배포를 완료했지만 새 파드가 등록을 완료하지 않은 상황을 방지합니다.
이를 활성화하려면 다음을 수행해야 합니다.
1. 최신 버전의 [AWS 로드밸런서 컨트롤](https://github.com/kubernetes-sigs/aws-load-balancer-controller)를 배포합니다. (**[*이전 버전을 업그레이드하는 경우 설명서를 참조*](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/deploy/upgrade/migrate_v1_v2/)**)
2. 파드 Readiness 게이트를 자동으로 주입하려면 `elbv2.k8s.aws/pod-readiness-gate-inject: enabled` 레이블로 [타겟 파드가 실행 중인 네임스페이스에 레이블을 붙입니다.](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/deploy/pod_readiness_gate/).
3. 네임스페이스의 모든 파드가 준비 게이트 컨피그레이션을 가져오도록 하려면 인그레스 또는 서비스를 생성하고 파드를 생성하기 ***전에*** 네임스페이스에 레이블을 지정해야 한다.
### 종료*전*에 로드밸런서에서 파드의 등록이 취소되었는지 확인
When a pod is terminated steps 4 and 5 from the pod readiness section occur at the same time that the container processes receive the termination signals. This means that if your container is able to shut down quickly it may shut down faster than the Load Balancer is able to deregister the target. To avoid this situation adjust the Pod spec with:
1. 애플리케이션이 등록을 취소하고 연결을 정상적으로 종료할 수 있도록 'PreStop' 라이프사이클 훅을 추가합니다. 이 훅은 API 요청 또는 관리 이벤트 (예: 라이브니스/스타트업 프로브 실패, 선점, 리소스 경합 등) 로 인해 컨테이너가 종료되기 직전에 호출됩니다. 중요한 점은 [이 훅이 호출되어 종료 신호가 전송되기 **전에** 완료되도록 허용됨](https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#pod-termination) 입니다. 단, 유예 기간이 실행을 수용할 수 있을 만큼 충분히 길어야 합니다.
```
lifecycle:
preStop:
exec:
command: ["/bin/sh", "-c", "sleep 180"]
```
위와 같은 간단한 sleep 명령을 사용하면 파드가 `Terminating (종료 중)`으로 표시된 시점 (그리고 로드밸런서 등록 취소가 시작되는 시점) 과 종료 신호가 컨테이너 프로세스로 전송되는 시점 사이에 짧은 지연을 발생시킬 수 있다.필요한 경우 이 훅를 고급 애플리케이션 종료/종료 절차에도 활용할 수 있습니다.
2. 전체 `프리스톱` 실행 시간과 애플리케이션이 종료 신호에 정상적으로 응답하는 데 걸리는 시간을 수용할 수 있도록 'TerminationGracePeriodsSeconds'를 연장하십시오.아래 예시에서는 유예 기간을 200초로 연장하여 전체 `sleep 180` 명령을 완료한 다음, 앱이 정상적으로 종료될 수 있도록 20초 더 연장했습니다.
```
spec:
terminationGracePeriodSeconds: 200
containers:
- name: webapp
image: webapp-st:v1.3
[...]
lifecycle:
preStop:
exec:
command: ["/bin/sh", "-c", "sleep 180"]
```
### 파드에 Readiness 프로브가 있는지 확인
쿠버네티스에서 파드를 생성할 때 기본 준비 상태는 "Ready"이지만, 대부분의 애플리케이션은 인스턴스화하고 요청을 받을 준비가 되는 데 1~2분 정도 걸립니다. [파드 스펙에서 'Readiness 프로브'를 정의할 수 있습니다.](https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes/) 실행 명령어 또는 네트워크 요청을 사용하여 애플리케이션이 시작을 완료하고 트래픽을 처리할 준비가 되었는지 확인하는 데 사용됩니다.
`Readiness 프로브`로 정의된 파드는 "NotReady" 상태에서 시작하며, `Readiness 프로브`가 성공했을 때만 "준비 완료"로 변경됩니다. 이렇게 하면 애플리케이션 시작이 완료될 때까지 애플리케이션이 "서비스 중"으로 전환되지 않습니다.
장애 상태 (예: 교착 상태) 에 들어갈 때 애플리케이션을 다시 시작할 수 있도록 라이브니스 프로브를 사용하는 것이 좋지만, 활성 장애가 발생하면 애플리케이션 재시작을 트리거하므로 Stateful 애플리케이션을 사용할 때는 주의해야 합니다. 시작 속도가 느린 애플리케이션에도 [스타트업 프로브](https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes/#define-startup-probes)를 활용할 수 있습니다.
아래 프로브는 포트 80에 대한 HTTP 프로브를 사용하여 웹 애플리케이션이 언제 준비되는지 확인합니다 (활성 프로브에도 동일한 프로브 구성이 사용됨).
```
[...]
ports:
- containerPort: 80
livenessProbe:
httpGet:
path: /
port: 80
failureThreshold: 1
periodSeconds: 10
initialDelaySeconds: 5
readinessProbe:
httpGet:
path: /
port: 80
periodSeconds: 5
[...]
```
### 파드 중단 예산 (PDB) 설정
[파드 중단 예산 (PDB)](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/#pod-disruption-budgets)은 복제된 애플리케이션 중 [자발적 중단](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/#voluntary-and-involuntary-disruptions)으로 인해 동시에 다운되는 파드의 수를 제한합니다. 예를 들어 쿼럼 기반 응용 프로그램에서는 실행 중인 복제본 수가 쿼럼에 필요한 수 이하로 떨어지지 않도록 하려는 경우가 있습니다. 웹 프런트 엔드는 부하를 처리하는 복제본의 수가 전체 복제본의 특정 비율 이하로 떨어지지 않도록 해야 할 수 있습니다.
PDB는 노드 드레이닝 또는 애플리케이션 배포와 같은 것으로부터 애플리케이션을 보호합니다. PDB는 이런 조치를 취하는 동안 사용할 수 있는 파드의 수 또는 비율을 최소한으로 유지합니다.
!!! caution
PDB는 호스트 OS 장애 또는 네트워크 연결 손실과 같은 비자발적 중단으로부터 애플리케이션을 보호하지 않습니다.
아래 예시는 `app: echoserver` 레이블이 붙은 파드를 항상 1개 이상 사용할 수 있도록 만듭니다. [애플리케이션에 맞는 올바른 레플리카 수를 구성하거나 백분율을 사용할 수 있습니다.](https://kubernetes.io/docs/tasks/run-application/configure-pdb/#think-about-how-your-application-reacts-to-disruptions):
```
apiVersion: policy/v1beta1
kind: PodDisruptionBudget
metadata:
name: echoserver-pdb
namespace: echoserver
spec:
minAvailable: 1
selector:
matchLabels:
app: echoserver
```
### 종료 신호를 정상적으로 처리
파드가 종료되면 컨테이너 내에서 실행되는 애플리케이션은 두 개의 [Signal](https://www.gnu.org/software/libc/manual/html_node/Standard-Signals.html)을 수신합니다. 첫 번째는 [`SIGTERM` 신호](https://www.gnu.org/software/libc/manual/html_node/Termination-Signals.html)이며, 이는 프로세스 실행을 중단하라는 "정중한" 요청입니다. 이 신호는 차단될 수도 있고 애플리케이션이 단순히 이 신호를 무시할 수도 있으므로, `terminationGracePeriodSeconds`이 경과하면 애플리케이션은 [`SIGKILL` 신호](https://www.gnu.org/software/libc/manual/html_node/Termination-Signals.html)를 받게 됩니다. `SIGKILL`은 프로세스를 강제로 중지하는 데 사용되며, [차단, 처리 또는 무시](https://man7.org/linux/man-pages/man7/signal.7.html) 될 수 없으므로 항상 치명적입니다.
이런 신호는 컨테이너 런타임에서 애플리케이션 종료를 트리거하는 데 사용됩니다.또한 `SIGTERM` 신호는 `preStop` 훅이 실행된 후에 전송됩니다. 위 구성에서 `preStop` 훅은 로드밸런서에서 파드의 등록이 취소되었는지 확인하므로 애플리케이션은 `SIGTERM` 신호가 수신될 때 열려 있는 나머지 연결을 정상적으로 종료할 수 있습니다.
!!! 참조
[애플리케이션의 진입점에 "래퍼 스크립트"를 사용할 경우 컨테이너 환경에서의 신호 처리는 복잡할 수 있습니다.](https://petermalmgren.com/signal-handling-docker/) 스크립트는 PID 1이므로 신호를 애플리케이션으로 전달하지 않을 수 있습니다.
### 등록 취소 지연에 주의
Elastic Load Balancing은 등록 취소 중인 대상에 대한 요청 전송을 중지합니다.기본적으로 Elastic Load Balancing은 등록 취소 프로세스를 완료하기 전에 300초 정도 대기하므로 대상에 대한 진행 중인 요청을 완료하는 데 도움이 될 수 있습니다. Elastic Load Balancing이 대기하는 시간을 변경하려면 등록 취소 지연 값을 업데이트하십시오.
등록 취소 대상의 초기 상태는 `draining`입니다. 등록 취소 지연이 경과하면 등록 취소 프로세스가 완료되고 대상의 상태는 `unused`가 됩니다. 대상이 Auto Scaling 그룹의 일부인 경우 대상을 종료하고 교체할 수 있습니다.
등록 취소 대상에 진행 중인 요청이 없고 활성 연결이 없는 경우 Elastic Load Balancing은 등록 취소 지연이 경과할 때까지 기다리지 않고 등록 취소 프로세스를 즉시 완료합니다.
!!! caution
대상 등록 취소가 완료되더라도 등록 취소 지연 제한 시간이 만료될 때까지 대상 상태가 '드레이닝 중'으로 표시됩니다. 제한 시간이 만료되면 대상은 '미사용' 상태로 전환됩니다.
[등록 취소 지연이 경과하기 전에 등록 취소 대상이 연결을 종료하면 클라이언트는 500레벨 오류 응답을 받습니다.](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#deregistration-delay).
이는 [`alb.ingress.kubernetes.io/target-group-attributes` 어노테이션](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/ingress/annotations/#target-group-attributes)을 사용하여 인그레스 리소스의 어노테이션을 사용하여 구성할 수 있습니다. 아래는 예제입니다.
```
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: echoserver-ip
namespace: echoserver
annotations:
alb.ingress.kubernetes.io/scheme: internet-facing
alb.ingress.kubernetes.io/target-type: ip
alb.ingress.kubernetes.io/load-balancer-name: echoserver-ip
alb.ingress.kubernetes.io/target-group-attributes: deregistration_delay.timeout_seconds=30
spec:
ingressClassName: alb
rules:
- host: echoserver.example.com
http:
paths:
- path: /
pathType: Exact
backend:
service:
name: echoserver-service
port:
number: 8080
``` | eks | search exclude true Kubernetes AWS Elastic Load Balancer Kubernetes Kubernetes AWS Ready Readiness 2019 Kubecon talk https www youtube com watch v Vw9GmSeomFg Ready A Deep Dive into Pod Readiness Gates for Service Health Minhan Xia Ping Zou https www youtube com watch v Vw9GmSeomFg NodePort 1 kubectl 2 kube scheduler 3 kubelet watch 1 ReadinessProbes kubelet kube apiserver Ready 4 watch Ready IP 5 kube proxy iptables IP watch 1 iptables NodePort AWS 5 kube proxy https kubernetes io docs concepts workloads pods pod lifecycle pod termination API kubelet kubectl 3 5 iptables IP Ready A Deep Dive into Pod Readiness Gates for Service Health Minhan Xia Ping Zou https www youtube com watch v Vw9GmSeomFg Ready 4 5 Ready Kubernetes AWS 1 2 IP Kubernetes AWS Load Balancer IP LoadBalancer NodePort IP note Ready AWS https github com kubernetes sigs aws load balancer controller IP IP Ready IP VPC IP NodePort Readiness Readiness https kubernetes io docs concepts workloads pods pod lifecycle pod readiness gate Ready AWS Load Balancer ALB NLB Healthy True ALB NLB https kubernetes sigs github io aws load balancer controller v2 4 deploy pod readiness gate Readiness 1 AWS https github com kubernetes sigs aws load balancer controller https kubernetes sigs github io aws load balancer controller v2 4 deploy upgrade migrate v1 v2 2 Readiness elbv2 k8s aws pod readiness gate inject enabled https kubernetes sigs github io aws load balancer controller v2 4 deploy pod readiness gate 3 When a pod is terminated steps 4 and 5 from the pod readiness section occur at the same time that the container processes receive the termination signals This means that if your container is able to shut down quickly it may shut down faster than the Load Balancer is able to deregister the target To avoid this situation adjust the Pod spec with 1 PreStop API https kubernetes io docs concepts workloads pods pod lifecycle pod termination lifecycle preStop exec command bin sh c sleep 180 sleep Terminating 2 TerminationGracePeriodsSeconds 200 sleep 180 20 spec terminationGracePeriodSeconds 200 containers name webapp image webapp st v1 3 lifecycle preStop exec command bin sh c sleep 180 Readiness Ready 1 2 Readiness https kubernetes io docs tasks configure pod container configure liveness readiness startup probes Readiness NotReady Readiness Stateful https kubernetes io docs tasks configure pod container configure liveness readiness startup probes define startup probes 80 HTTP ports containerPort 80 livenessProbe httpGet path port 80 failureThreshold 1 periodSeconds 10 initialDelaySeconds 5 readinessProbe httpGet path port 80 periodSeconds 5 PDB PDB https kubernetes io docs concepts workloads pods disruptions pod disruption budgets https kubernetes io docs concepts workloads pods disruptions voluntary and involuntary disruptions PDB PDB caution PDB OS app echoserver 1 https kubernetes io docs tasks run application configure pdb think about how your application reacts to disruptions apiVersion policy v1beta1 kind PodDisruptionBudget metadata name echoserver pdb namespace echoserver spec minAvailable 1 selector matchLabels app echoserver Signal https www gnu org software libc manual html node Standard Signals html SIGTERM https www gnu org software libc manual html node Termination Signals html terminationGracePeriodSeconds SIGKILL https www gnu org software libc manual html node Termination Signals html SIGKILL https man7 org linux man pages man7 signal 7 html SIGTERM preStop preStop SIGTERM https petermalmgren com signal handling docker PID 1 Elastic Load Balancing Elastic Load Balancing 300 Elastic Load Balancing draining unused Auto Scaling Elastic Load Balancing caution 500 https docs aws amazon com elasticloadbalancing latest application load balancer target groups html deregistration delay alb ingress kubernetes io target group attributes https kubernetes sigs github io aws load balancer controller v2 4 guide ingress annotations target group attributes apiVersion networking k8s io v1 kind Ingress metadata name echoserver ip namespace echoserver annotations alb ingress kubernetes io scheme internet facing alb ingress kubernetes io target type ip alb ingress kubernetes io load balancer name echoserver ip alb ingress kubernetes io target group attributes deregistration delay timeout seconds 30 spec ingressClassName alb rules host echoserver example com http paths path pathType Exact backend service name echoserver service port number 8080 |
eks exclude true search Amazon VPC CNI IP ENI CIDR | ---
search:
exclude: true
---
# 사용자 지정 네트워킹
기본적으로 Amazon VPC CNI는 기본 서브넷에서 선택한 IP 주소를 파드에 할당합니다. 기본 서브넷은 기본 ENI가 연결된 서브넷 CIDR이며, 일반적으로 노드/호스트의 서브넷입니다.
서브넷 CIDR이 너무 작으면 CNI가 파드에 할당하기에 충분한 보조 IP 주소를 확보하지 못할 수 있습니다. 이는 EKS IPv4 클러스터의 일반적인 문제입니다.
사용자 지정 네트워킹은 이 문제에 대한 한 가지 해결책입니다.
사용자 지정 네트워킹은 보조 VPC 주소 공간 (CIDR) 에서 노드 및 파드 IP를 할당하여 IP 고갈 문제를 해결합니다. 사용자 지정 네트워킹 지원은 Eniconfig 사용자 지정 리소스를 지원합니다. ENIConfig에는 파드가 속하게 될 보안 그룹과 함께 대체 서브넷 CIDR 범위 (보조 VPC CIDR에서 파밍) 가 포함되어 있습니다. 사용자 지정 네트워킹이 활성화되면 VPC CNI는 eniconfig에 정의된 서브넷에 보조 ENI를 생성합니다. CNI는 ENIConfig CRD에 정의된 CIDR 범위의 IP 주소를 파드에 할당합니다.
사용자 지정 네트워킹에서는 기본 ENI를 사용하지 않으므로, 노드에서 실행할 수 있는 최대 파드 수는 더 적다. 호스트 네트워크 파드는 기본 ENI에 할당된 IP 주소를 계속 사용합니다. 또한 기본 ENI는 소스 네트워크 변환을 처리하고 파드 트래픽을 노드 외부로 라우팅하는 데 사용됩니다.
## 예제 구성
사용자 지정 네트워킹은 보조 CIDR 범위에 유효한 VPC 범위를 허용하지만 CG-NAT 공간 (예: 100.64.0.0/10 또는 198.19.0.0/16) 의 CIDR (/16) 은 다른 RFC1918 범위보다 기업 환경에서 사용될 가능성이 적기 때문에 사용하는 것이 좋습니다. VPC에서 사용할 수 있는 허용 및 제한된 CIDR 블록 연결에 대한 자세한 내용은 VPC 설명서의 VPC 및 서브넷 크기 조정 섹션에서 [IPv4 CIDR 블록 연결 제한](https://docs.aws.amazon.com/vpc/latest/userguide/configure-your-vpc.html#add-cidr-block-restrictions)을 참조하십시오.
아래 다이어그램에서 볼 수 있듯이 워커 노드의 기본 엘라스틱 네트워크 인터페이스 ([ENI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html)) 는 여전히 기본 VPC CIDR 범위 (이 경우 10.0.0.0/16) 를 사용하지만 보조 ENI는 보조 VPC CIDR 범위 (이 경우 100.64.0.0/16) 를 사용합니다. 이제 파드가 100.64.0.0/16 CIDR 범위를 사용하도록 하려면 사용자 지정 네트워킹을 사용하도록 CNI 플러그인을 구성해야 합니다. [여기](https://docs.aws.amazon.com/eks/latest/userguide/cni-custom-network.html)에 설명된 대로 단계를 수행하면 됩니다.
![illustration of pods on secondary subnet](./image.png)
CNI에서 사용자 지정 네트워킹을 사용하도록 하려면 `AWS_VPC_K8S_CNI_CUSTOM_NETWORK_CFG` 환경 변수를 `true`로 설정하십시오.
```
kubectl set env daemonset aws-node -n kube-system AWS_VPC_K8S_CNI_CUSTOM_NETWORK_CFG=true
```
`AWS_VPC_K8S_CNI_CUSTOM_Network_CFG=true`인 경우, CNI는 `ENIConfig`에 정의된 서브넷의 파드 IP 주소를 할당한다. `ENIConfig` 사용자 지정 리소스는 파드가 스케줄링될 서브넷을 정의하는 데 사용됩니다.
```
apiVersion : crd.k8s.amazonaws.com/v1alpha1
kind : ENIConfig
metadata:
name: us-west-2a
spec:
securityGroups:
- sg-0dff111a1d11c1c11
subnet: subnet-011b111c1f11fdf11
```
`ENIconfig` 사용자 지정 리소스를 생성할 때 새 워커 노드를 생성하고 기존 노드를 비워야 합니다. 기존 워커 노드와 파드는 영향을 받지 않습니다.
## 권장 사항
### 사용자 지정 네트워킹 이용을 권장하는 경우
IPv4가 고갈되고 있고 아직 IPv6를 사용할 수 없는 경우 사용자 지정 네트워킹을 고려하는 것이 좋습니다. Amazon EKS는 [RFC6598](https://datatracker.ietf.org/doc/html/rfc6598) 공간을 지원하므로 [RFC1918](https://datatracker.ietf.org/doc/html/rfc1918) 문제 소모 문제 이상으로 파드를 확장할 수 있습니다.사용자 지정 네트워킹과 함께 Prefix 위임을 사용하여 노드의 파드 밀도를 높이는 것을 고려해 보십시오.
보안 그룹 요구 사항이 다른 다른 네트워크에서 Pod를 실행해야 하는 보안 요구 사항이 있는 경우 사용자 지정 네트워킹을 고려할 수 있습니다. 사용자 지정 네트워킹이 활성화되면 파드는 Eniconfig에 정의된 대로 노드의 기본 네트워크 인터페이스와 다른 서브넷 또는 보안 그룹을 사용합니다.
사용자 지정 네트워킹은 여러 EKS 클러스터 및 애플리케이션을 배포하여 온프레미스 데이터 센터 서비스를 연결하는 데 가장 적합한 옵션입니다. Amazon Elastic Load Balancing 및 NAT-GW와 같은 서비스를 위해 VPC에서 EKS로 액세스할 수 있는 프라이빗 주소 (RFC1918) 의 수를 늘리는 동시에 여러 클러스터에서 파드에 라우팅할 수 없는 CG-NAT 공간을 사용할 수 있습니다. [트랜짓 게이트웨이](https://aws.amazon.com/transit-gateway/) 및 공유 서비스 VPC (고가용성을 위한 여러 가용영역에 걸친 NAT 게이트웨이 포함) 를 사용한 사용자 지정 네트워킹을 통해 확장 가능하고 예측 가능한 트래픽 흐름을 제공할 수 있습니다. 이 [블로그 게시물](https://aws.amazon.com/blogs/containers/eks-vpc-routable-ip-address-conservation/) 에서는 사용자 지정 네트워킹을 사용하여 EKS Pod를 데이터 센터 네트워크에 연결하는 데 가장 권장되는 방법 중 하나인 아키텍처 패턴을 설명합니다.
### 사용자 지정 네트워킹 이용을 권장하지 않는 경우
#### IPv6 구현 준비 완료
사용자 지정 네트워킹은 IP 고갈 문제를 완화할 수 있지만 추가 운영 오버헤드가 필요합니다. 현재 이중 스택 (IPv4/IPv6) VPC를 배포 중이거나 계획에 IPv6 지원이 포함된 경우 IPv6 클러스터를 대신 구현하는 것이 좋습니다. IPv6 EKS 클러스터를 설정하고 앱을 마이그레이션할 수 있습니다. IPv6 EKS 클러스터에서는 쿠버네티스와 파드 모두 IPv6 주소를 얻고 IPv4 및 IPv6 엔드포인트 모두와 송수신할 수 있습니다. [IPv6 EKS 클러스터 실행](../ipv6/index.md)에 대한 모범 사례를 검토하십시오.
#### 고갈된 CG-NAT 공간
또한 현재 CG-NAT 공간의 CIDR을 사용하고 있거나 보조 CIDR을 클러스터 VPC와 연결할 수 없는 경우 대체 CNI 사용과 같은 다른 옵션을 탐색해야 할 수도 있습니다. 상용 지원을 받거나 사내 지식을 보유하여 오픈소스 CNI 플러그인 프로젝트를 디버깅하고 패치를 제출하는 것이 좋습니다. 자세한 내용은 [대체 CNI 플러그인](https://docs.aws.amazon.com/eks/latest/userguide/alternate-cni-plugins.html) 사용 설명서를 참조하십시오.
#### 프라이빗 NAT 게이트웨이 사용
Amazon VPC는 이제 [프라이빗 NAT 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) 기능을 제공합니다. Amazon의 프라이빗 NAT 게이트웨이를 사용하면 프라이빗 서브넷의 인스턴스를 CIDR이 겹치는 다른 VPC 및 온프레미스 네트워크에 연결할 수 있습니다. 이 [블로그 게시물](https://aws.amazon.com/blogs/containers/addressing-ipv4-address-exhaustion-in-amazon-eks-clusters-using-private-nat-gateways/)에 설명된 방법을 활용하여 프라이빗 NAT 게이트웨이를 사용하여 CIDR 중복으로 인한 EKS 워크로드의 통신 문제를 해결하는 것을 고려해 보십시오. 이는 고객이 제기한 중대한 불만 사항입니다. 맞춤형 네트워킹만으로는 중복되는 CIDR 문제를 해결할 수 없으며 구성 문제가 가중됩니다.
이 블로그 게시물 구현에 사용된 네트워크 아키텍처는 Amazon VPC 설명서의 [중복 네트워크 간 통신 활성화](https://docs.aws.amazon.com/vpc/latest/userguide/nat-gateway-scenarios.html#private-nat-overlapping-networks)에 있는 권장 사항을 따릅니다. 이 블로그 게시물에서 설명한 것처럼 프라이빗 NAT 게이트웨이를 RFC6598 주소와 함께 사용하여 고객의 프라이빗 IP 고갈 문제를 관리할 수 있는 방법을 모색할 수 있습니다. EKS 클러스터, 워커 노드는 라우팅이 불가능한 100.64.0.0/16 VPC 보조 CIDR 범위에 배포되는 반면, 사설 NAT 게이트웨이인 NAT 게이트웨이는 라우팅 가능한 RFC1918 CIDR 범위에 배포됩니다. 이 블로그에서는 라우팅이 불가능한 CIDR 범위가 겹치는 VPC 간의 통신을 용이하게 하기 위해 트랜짓 게이트웨이를 사용하여 VPC를 연결하는 방법을 설명합니다. VPC의 라우팅 불가능한 주소 범위에 있는 EKS 리소스가 주소 범위가 겹치지 않는 다른 VPC와 통신해야 하는 사용 사례의 경우 고객은 VPC 피어링을 사용하여 이런 VPC를 상호 연결할 수 있습니다. 이제 VPC 피어링 연결을 통한 가용영역 내의 모든 데이터 전송이 무료이므로 이 방법을 사용하면 비용을 절감할 수 있습니다.
![illustration of network traffic using private NAT gateway](./image-3.png)
#### 노드 및 파드를 위한 고유한 네트워크
보안상의 이유로 노드와 파드를 특정 네트워크로 격리해야 하는 경우, 더 큰 보조 CIDR 블록 (예: 100.64.0.0/8) 의 서브넷에 노드와 파드를 배포하는 것이 좋습니다. VPC에 새 CIDR을 설치한 후에는 보조 CIDR을 사용하여 다른 노드 그룹을 배포하고 원래 노드를 드레인하여 파드를 새 워커 노드에 자동으로 재배포할 수 있습니다. 이를 구현하는 방법에 대한 자세한 내용은 이 [블로그](https://aws.amazon.com/blogs/containers/optimize-ip-addresses-usage-by-pods-in-your-amazon-eks-cluster/) 게시물을 참조하십시오.
아래 다이어그램에 표시된 설정에서는 사용자 지정 네트워킹이 사용되지 않습니다. 대신 쿠버네티스 워커 노드는 VPC의 보조 VPC CIDR 범위 (예: 100.64.0.0/10) 에 속하는 서브넷에 배포됩니다. EKS 클러스터를 계속 실행할 수 있지만 (컨트롤 플레인은 원래 서브넷에 유지됨), 노드와 파드는 보조 서브넷으로 이동합니다. 이는 VPC에서 IP 고갈의 위험을 완화하기 위한 흔하지는 않지만 또 다른 기법입니다.새 워커 노드에 파드를 재배포하기 전에 기존 노드를 비우는 것이 좋습니다.
![illustration of worker nodes on secondary subnet](./image-2.png)
### 가용영역 레이블을 사용한 구성 자동화
Kubernetes를 활성화하여 워커 노드 가용영역 (AZ) 에 해당하는 eniConfig를 자동으로 적용할 수 있습니다.
쿠버네티스는 워커 노드에 [`topology.kubernetes.io/zone`](http://topology.kubernetes.io/zone) 태그를 자동으로 추가합니다. Amazon EKS는 AZ당 보조 서브넷 (대체 CIDR) 이 하나뿐인 경우 가용영역을 ENI 구성 이름으로 사용할 것을 권장합니다. 참고로 `failure-domain.beta.kubernetes.io/zone` 태그는 더 이상 사용되지 않으며 `topology.kubernetes.io/zone` 태그로 대체되었습니다.
1. `name` 필드를 VPC의 가용영역으로 설정합니다.
2. 다음 명령을 사용하여 자동 구성을 활성화합니다.
```
kubectl set env daemonset aws-node -n kube-system AWS_VPC_K8S_CNI_CUSTOM_NETWORK_CFG=true
```
가용영역당 보조 서브넷이 여러 개 있는 경우, 특정 `ENI_CONFIG_LABEL_DEF`를 생성해야 합니다. `ENI_CONFIG_LABEL_DEF`를 [`k8s.amazonaws.com/eniConfig`](http://k8s.amazonaws.com/eniConfig)로 구성하고 [`k8s.amazonaws.com/eniConfig=us-west-2a-subnet-1`](http://k8s.amazonaws.com/eniConfig=us-west-2a-subnet-1) 및 [`k8s.amazonaws.com/eniConfig=us-west-2a-subnet-2`](http://k8s.amazonaws.com/eniConfig=us-west-2a-subnet-2) 같은 사용자 정의 eniConfig 이름으로 노드를 레이블링하는 것을 고려할 수 있습니다.
### 보조 네트워킹 구성 시 파드 교체
사용자 지정 네트워킹을 활성화해도 기존 노드는 수정되지 않습니다. 맞춤형 네트워킹은 파괴적인 조치입니다. 사용자 지정 네트워킹을 활성화한 후 클러스터의 모든 워커 노드를 순차적으로 교체하는 대신, 워커 노드가 프로비저닝되기 전에 사용자 지정 네트워킹이 가능하도록 Lambda 함수를 호출하는 사용자 지정 리소스로 [EKS 시작 안내서](https://docs.aws.amazon.com/eks/latest/userguide/getting-started.html)의 AWS CloudFormation 템플릿을 업데이트하여 환경 변수로 `aws-node` 데몬셋을 업데이트하는 것이 좋습니다.
사용자 지정 CNI 네트워킹 기능으로 전환하기 전에 클러스터에 파드를 실행하는 노드가 있는 경우, 파드를 차단하고 [드레이닝](https://aws.amazon.com/premiumsupport/knowledge-center/eks-worker-node-actions/) 하여 파드를 정상적으로 종료한 다음 노드를 종료해야 합니다. ENIConfig 레이블 또는 주석과 일치하는 새 노드만 사용자 지정 네트워킹을 사용하므로 이런 새 노드에 스케줄링된 파드에는 보조 CIDR의 IP를 할당받을 수 있습니다.
### 노드당 최대 파드 수 계산
노드의 기본 ENI는 더 이상 Pod IP 주소를 할당하는 데 사용되지 않으므로 특정 EC2 인스턴스 유형에서 실행할 수 있는 Pod 수가 감소합니다. 이 제한을 우회하기 위해 사용자 지정 네트워킹과 함께 Prefix 할당을 사용할 수 있습니다. Prefix를 할당하면 보조 ENI에서 각 보조 IP가 /28 Prefix로 대체됩니다.
사용자 지정 네트워킹이 있는 m5.large 인스턴스의 최대 파드 수를 고려해봅시다.
Prefix를 할당하지 않고 실행할 수 있는 최대 파드 수는 29개입니다.
* ((3 ENIs - 1) * (10 secondary IPs per ENI - 1)) + 2 = 20
프리픽스 어태치먼트를 활성화하면 파드의 수가 290개로 늘어납니다.
* (((3 ENIs - 1) * ((10 secondary IPs per ENI - 1) * 16)) + 2 = 290
하지만 인스턴스의 가상 CPU 수가 매우 적기 때문에 max-pod를 290이 아닌 110으로 설정하는 것이 좋습니다. 더 큰 인스턴스의 경우 EKS는 최대 파드 값을 250으로 설정할 것을 권장합니다. 더 작은 인스턴스 유형 (예: m5.large) 에 Prefix 첨부 파일을 사용할 경우 IP 주소보다 훨씬 먼저 인스턴스의 CPU 및 메모리 리소스가 고갈될 수 있습니다.
!!! info
CNI Prefix가 ENI에 /28 Prefix를 할당할 때는 연속된 IP 주소 블록이어야 합니다. Prefix가 생성되는 서브넷이 고도로 분할된 경우 Prefix 연결에 실패할 수 있습니다. 클러스터용 전용 VPC를 새로 만들거나 서브넷에 Prefix 첨부 전용으로 CIDR 세트를 예약하여 이런 문제가 발생하지 않도록 할 수 있습니다. 이 주제에 대한 자세한 내용은 [서브넷 CIDR 예약](https://docs.aws.amazon.com/vpc/latest/userguide/subnet-cidr-reservation.html)을 참조하십시오.
### CG-NAT 공간의 기존 사용 현황 파악
사용자 지정 네트워킹을 사용하면 IP 소모 문제를 완화할 수 있지만 모든 문제를 해결할 수는 없습니다. 클러스터에 이미 CG-NAT 공간을 사용하고 있거나 단순히 보조 CIDR을 클러스터 VPC에 연결할 수 없는 경우에는 대체 CNI를 사용하거나 IPv6 클러스터로 이동하는 등의 다른 옵션을 살펴보는 것이 좋습니다. | eks | search exclude true Amazon VPC CNI IP ENI CIDR CIDR CNI IP EKS IPv4 VPC CIDR IP IP Eniconfig ENIConfig CIDR VPC CIDR VPC CNI eniconfig ENI CNI ENIConfig CRD CIDR IP ENI ENI IP ENI CIDR VPC CG NAT 100 64 0 0 10 198 19 0 0 16 CIDR 16 RFC1918 VPC CIDR VPC VPC IPv4 CIDR https docs aws amazon com vpc latest userguide configure your vpc html add cidr block restrictions ENI https docs aws amazon com AWSEC2 latest UserGuide using eni html VPC CIDR 10 0 0 0 16 ENI VPC CIDR 100 64 0 0 16 100 64 0 0 16 CIDR CNI https docs aws amazon com eks latest userguide cni custom network html illustration of pods on secondary subnet image png CNI AWS VPC K8S CNI CUSTOM NETWORK CFG true kubectl set env daemonset aws node n kube system AWS VPC K8S CNI CUSTOM NETWORK CFG true AWS VPC K8S CNI CUSTOM Network CFG true CNI ENIConfig IP ENIConfig apiVersion crd k8s amazonaws com v1alpha1 kind ENIConfig metadata name us west 2a spec securityGroups sg 0dff111a1d11c1c11 subnet subnet 011b111c1f11fdf11 ENIconfig IPv4 IPv6 Amazon EKS RFC6598 https datatracker ietf org doc html rfc6598 RFC1918 https datatracker ietf org doc html rfc1918 Prefix Pod Eniconfig EKS Amazon Elastic Load Balancing NAT GW VPC EKS RFC1918 CG NAT https aws amazon com transit gateway VPC NAT https aws amazon com blogs containers eks vpc routable ip address conservation EKS Pod IPv6 IP IPv4 IPv6 VPC IPv6 IPv6 IPv6 EKS IPv6 EKS IPv6 IPv4 IPv6 IPv6 EKS ipv6 index md CG NAT CG NAT CIDR CIDR VPC CNI CNI CNI https docs aws amazon com eks latest userguide alternate cni plugins html NAT Amazon VPC NAT https docs aws amazon com vpc latest userguide vpc nat gateway html Amazon NAT CIDR VPC https aws amazon com blogs containers addressing ipv4 address exhaustion in amazon eks clusters using private nat gateways NAT CIDR EKS CIDR Amazon VPC https docs aws amazon com vpc latest userguide nat gateway scenarios html private nat overlapping networks NAT RFC6598 IP EKS 100 64 0 0 16 VPC CIDR NAT NAT RFC1918 CIDR CIDR VPC VPC VPC EKS VPC VPC VPC VPC illustration of network traffic using private NAT gateway image 3 png CIDR 100 64 0 0 8 VPC CIDR CIDR https aws amazon com blogs containers optimize ip addresses usage by pods in your amazon eks cluster VPC VPC CIDR 100 64 0 0 10 EKS VPC IP illustration of worker nodes on secondary subnet image 2 png Kubernetes AZ eniConfig topology kubernetes io zone http topology kubernetes io zone Amazon EKS AZ CIDR ENI failure domain beta kubernetes io zone topology kubernetes io zone 1 name VPC 2 kubectl set env daemonset aws node n kube system AWS VPC K8S CNI CUSTOM NETWORK CFG true ENI CONFIG LABEL DEF ENI CONFIG LABEL DEF k8s amazonaws com eniConfig http k8s amazonaws com eniConfig k8s amazonaws com eniConfig us west 2a subnet 1 http k8s amazonaws com eniConfig us west 2a subnet 1 k8s amazonaws com eniConfig us west 2a subnet 2 http k8s amazonaws com eniConfig us west 2a subnet 2 eniConfig Lambda EKS https docs aws amazon com eks latest userguide getting started html AWS CloudFormation aws node CNI https aws amazon com premiumsupport knowledge center eks worker node actions ENIConfig CIDR IP ENI Pod IP EC2 Pod Prefix Prefix ENI IP 28 Prefix m5 large Prefix 29 3 ENIs 1 10 secondary IPs per ENI 1 2 20 290 3 ENIs 1 10 secondary IPs per ENI 1 16 2 290 CPU max pod 290 110 EKS 250 m5 large Prefix IP CPU info CNI Prefix ENI 28 Prefix IP Prefix Prefix VPC Prefix CIDR CIDR https docs aws amazon com vpc latest userguide subnet cidr reservation html CG NAT IP CG NAT CIDR VPC CNI IPv6 |
eks Security Group for Pod SGP search exclude true AWS EC2 Amazon VPC CNI ENI | ---
search:
exclude: true
---
# 파드용 보안 그룹 (Security Group for Pod, SGP)
AWS 보안 그룹은 인바운드 및 아웃바운드 트래픽을 제어하기 위해 EC2 인스턴스에 대한 가상 방화벽의 역할을 수행합니다. 기본적으로 Amazon VPC CNI는 노드의 ENI와 연결된 보안 그룹을 사용합니다. 따라서 모든 파드는 기본적으로 파드가 동작하는 노드와 동일한 보안 그룹을 공유하여 이용합니다.
아래 그림에서 볼 수 있듯이, 워커 노드에서 동작하는 모든 애플리케이션 파드는 RDS 데이터베이스 서비스에 액세스할 수 있습니다. (RDS 인바운드가 노드의 보안 그룹을 허용한다는 가정하에). 보안 그룹은 노드에서 실행되는 모든 파드에 적용되기 때문에 큰 그룹 단위로 보안 규칙이 적용됩니다. 파드용 보안 그룹 기능을 이용하면 각 Pod별로 보안 규칙을 설정할 수 있으며, 이는 세세한 보안 전략을 세울수 있도록 도와줍니다.
![illustration of node with security group connecting to RDS](./image.png)
파드용 보안 그룹을 사용하면 공유 컴퓨팅 리소스에서 다양한 네트워크 보안 요구 사항을 가진 애플리케이션을 실행하여 컴퓨팅 효율성을 개선할 수 있습니다. EC2 보안 그룹과 함께 파드와 파드 사이 또는 파드에서 외부 AWS 서비스와 같은 여러 유형의 보안 규칙을 한 곳에서 정의하고 Kubernetes 네이티브 API를 사용하여 워크로드에 적용할 수 있습니다. 아래의 그림은 파드 수준에서 적용된 보안 그룹을 나타내고 있으며, 이런 보안 그룹이 애플리케이션 배포 및 노드 아키텍처를 간소화하는 방법을 보여줍니다. 이제 파드에서 Amazon RDS 데이터베이스에 액세스할 수 있습니다.
![illustration of pod and node with different security groups connecting to RDS](./image-2.png)
VPC CNI에 대해 `ENABLE_POD_ENI=true`로 설정하여 파드에 대한 보안 그룹을 활성화할 수 있습니다. 활성화되면 EKS의 컨트롤 플레인에서 실행되는 "[VPC 리소스 컨트롤러](https://github.com/aws/amazon-vpc-resource-controller-k8s)"가 "aws-k8s-trunk-eni"라는 트렁크 인터페이스를 생성하여 노드에 연결합니다. 트렁크 인터페이스는 인스턴스에 연결된 표준 네트워크 인터페이스 역할을 합니다. 트렁크 인터페이스를 관리하려면 Amazon EKS 클러스터와 함께 제공되는 클러스터 역할에 'AmazonEKSVPCResourceController' 관리형 정책을 추가해야 합니다.
또한 컨트롤러는 "aws-k8s-branch-eni"라는 브랜치 인터페이스를 생성하여 트렁크 인터페이스와 연결합니다. 파드는 [SecurityGroupPolicy](https://github.com/aws/amazon-vpc-resource-controller-k8s/blob/master/config/crd/bases/vpcresources.k8s.aws_securitygrouppolicies.yaml) 커스텀 리소스를 사용하여 보안 그룹을 할당받고 브랜치 인터페이스와 연결됩니다. 보안 그룹은 네트워크 인터페이스 단위로 지정되므로, 이제 이런 추가 네트워크 인터페이스에서 특정 보안 그룹을 필요로 하는 파드를 스케줄링할 수 있습니다. 배포 사전 요구 사항을 포함하여 [파드용 보안 그룹에 대한 EKS 사용자 가이드 섹션](https://docs.aws.amazon.com/eks/latest/userguide/security-groups-for-pods.html)에서 좀더 자세한 내용들을 확인할 수 있습니다.
![illustration of worker subnet with security groups associated with ENIs](./image-3.png)
분기 인터페이스 용량은 보조 IP 주소에 대한 기존 인스턴스 유형 제한에 *추가*됩니다. 보안 그룹을 사용하는 파드는 max-pods 공식에서 고려되지 않으며 파드에 보안 그룹을 사용하는 경우 max-pods 값을 높이는 것을 고려하거나 노드가 실제로 지원할 수 있는 것보다 적은 수의 파드를 실행해도 괜찮습니다.
m5.large에는 최대 9개의 분기 네트워크 인터페이스가 있을 수 있으며 표준 네트워크 인터페이스에 최대 27개의 보조 IP 주소가 할당될 수 있습니다. 아래 예에 표시된 것처럼 m5.large의 기본 max-pods는 29이며 EKS는 보안 그룹을 사용하는 Pod를 최대 Pod 수로 계산합니다. 노드의 max-pods를 변경하는 방법에 대한 지침은 [EKS 사용자 가이드](https://docs.aws.amazon.com/eks/latest/userguide/cni-increase-ip-addresses.html)를 참조하십시오.
파드용 보안 그룹을 [사용자 지정 네트워킹](https://docs.aws.amazon.com/eks/latest/userguide/cni-custom-network.html)과 함께 사용하는 경우, ENIConfig에 지정된 보안 그룹 대신 파드용 보안 그룹에 정의된 보안 그룹이 사용됩니다. 따라서 사용자 지정 네트워킹이 활성화되면 파드별 보안 그룹을 사용하면서 보안 그룹 순서를 신중하게 살펴봐야 합니다.
## 권장 사항
### 활성 프로브를 위한 TCP Early Demux 기능 비활성화
활성 또는 준비 상태 프로브를 사용하는 경우, kubelet이 TCP를 통해 브랜치 네트워크 인터페이스의 파드에 연결할 수 있도록 TCP Early Dmux 기능을 비활성화 해야 합니다. 이는 엄격 모드에서만 필요합니다. 이 작업을 수행하려면 다음 명령을 실행합니다.
```
kubectl edit daemonset aws-node -n kube-system
```
`초기화 컨테이너` 섹션에서 `DISABLE_TCP_EARLY_DEMUX`의 값을 `true`로 변경합니다.
### Pod용 보안 그룹을 사용하여 기존 AWS 구성을 활용하십시오.
보안 그룹을 사용하면 RDS 데이터베이스 또는 EC2 인스턴스와 같은 VPC 리소스에 대한 네트워크 액세스를 더 쉽게 제한할 수 있습니다. 파드용 보안 그룹의 분명한 이점 중 하나는 기존 AWS 보안 그룹 리소스를 재사용할 수 있다는 것입니다.
보안 그룹을 네트워크 방화벽으로 사용하여 AWS 서비스에 대한 액세스를 제한하는 경우, 브랜치 ENI를 사용하여 파드에 보안 그룹을 적용하는 것이 좋습니다. EC2 인스턴스에서 EKS로 앱을 전송하고 보안 그룹을 통해 다른 AWS 서비스에 대한 액세스를 제한하는 경우 파드용 보안 그룹을 사용하는 것을 고려해 보십시오.
### 파드용 보안 그룹 Enforcing 모드 구성
Amazon VPC CNI 플러그인 버전 1.11에는 `POD_SECURITY_GROUP_ENFORCING_MODE`("enforcing 모드")라는 새로운 설정이 추가되었습니다. 적용 모드는 파드에 적용되는 보안 그룹과 소스 NAT 활성화 여부를 모두 제어합니다. 적용 모드를 엄격 또는 표준으로 지정할 수 있습니다. 엄격이 기본값이며 `ENABLE_POD_ENI`가 `true`로 설정된 VPC CNI의 이전 동작을 반영합니다.
Strict 모드에서는 분기 ENI 보안 그룹만 적용됩니다. 소스 NAT도 비활성화됩니다.
Standard 모드에서는 기본 ENI 및 분기 ENI(파드와 연결됨)와 연결된 보안 그룹이 적용됩니다. 네트워크 트래픽은 두 보안 그룹을 모두 준수해야 합니다.
!!! warning
모든 모드 변경은 새로 출시된 파드에만 영향을 미칩니다. 기존 파드는 파드가 생성될 때 구성된 모드를 사용한다. 고객은 트래픽 동작을 변경하려는 경우 보안 그룹과 함께 기존 파드를 재활용해야 합니다.
### Enforcing 모드: 파드 및 노드 트래픽을 격리하기 위해 Strict 모드를 사용
기본적으로 Pod의 보안 그룹은 “Strict 모드”로 설정됩니다. 파드 트래픽을 나머지 노드 트래픽과 완전히 분리해야 하는 경우 이 설정을 사용한다. Strict 모드에서는 소스 NAT가 꺼져 브랜치 ENI 아웃바운드 보안 그룹을 사용할 수 있습니다.
!!! Warning
모든 모드 변경은 새로 실행된 파드에만 영향을 미칩니다. 기존 파드는 파드가 생성될 때 구성된 모드를 사용합니다. 고객이 트래픽 동작을 변경하려면 보안 그룹이 포함된 기존 파드를 재활용해야 합니다.
### Enforcing 모드: 다음 상황에서는 Standard 모드를 사용
**파드의 컨테이너에 표시되는 클라이언트 소스 IP**
클라이언트 소스 IP를 파드의 컨테이너에 표시되도록 유지해야 하는 경우 `POD_SECURITY_GROUP_ENFORCING_MODE`를 `standard`으로 설정하는 것이 좋습니다. Kubernetes 서비스는 클라이언트 소스 IP(기본 유형 클러스터) 보존을 지원하기 위해 externalTrafficPolicy=local을 지원합니다. 이제 표준 모드에서 externalTrafficPolicy가 Local로 설정된 인스턴스 대상을 사용하여 NodePort 및 LoadBalancer 유형의 Kubernetes 서비스를 실행할 수 있습니다. `Local`은 클라이언트 소스 IP를 유지하고 LoadBalancer 및 NodePort 유형 서비스에 대한 두 번째 홉을 방지합니다.
**NodeLocal DNSCache 배포**
파드에 보안 그룹을 사용하는 경우 [NodeLocal DNSCache](https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/)를 사용하는 파드를 지원하도록 표준 모드를 구성합니다. NodeLocal DNSCache는 클러스터 노드에서 DNS 캐싱 에이전트를 DaemonSet으로 실행하여 클러스터 DNS 성능을 향상시킵니다. 이렇게 하면 DNS QPS 요구 사항이 가장 높은 파드가 로컬 캐시가 있는 로컬 kube-dns/CoreDNS를 쿼리하는 데 도움이 되어 대기 시간이 향상됩니다.
NodeLocal DNSCache는 노드에 대한 모든 네트워크 트래픽이 VPC로 진입하므로 strict 모드에서는 지원되지 않습니다.
**Kubernetes 네트워크 정책 지원**
연결된 보안 그룹이 있는 파드에 네트워크 정책을 사용할 때는 표준 시행 모드를 사용하는 것이 좋습니다.
클러스터에 속하지 않은 AWS 서비스에 대한 네트워크 수준 액세스를 제한하려면 파드용 보안 그룹을 활용하는 것이 좋습니다. 클러스터 내부 파드 간의 네트워크 트래픽(종종 East/West 트래픽이라고도 함)을 제한하려면 네트워크 정책을 고려하세요.
### 파드당 보안 그룹과의 비호환성 식별
Windows 기반 및 비 Nitro 인스턴스는 파드에 대한 보안 그룹을 지원하지 않습니다. 파드에서 보안 그룹을 활용하려면 인스턴스에 isTrunkingEnabled 태그를 지정해야 합니다. 파드가 VPC 내부 또는 외부의 AWS 서비스에 의존하지 않는 경우 네트워크 정책을 사용하여 보안 그룹이 아닌 파드 간의 액세스를 관리합니다.
### 파드당 보안 그룹을 사용하여 AWS 서비스에 대한 트래픽을 효율적으로 제어
EKS 클러스터 내에서 실행되는 애플리케이션이 VPC 내의 다른 리소스와 통신해야 하는 경우. RDS 데이터베이스를 구축한 다음 파드에 SG를 사용하는 것을 권장 드립니다. CIDR 또는 DNS 이름을 지정할 수 있는 정책 엔진이 있지만 VPC 내에 엔드포인트가 있는 AWS 서비스와 통신할 때는 덜 최적의 선택입니다.
이와 대조적으로 Kubernetes [네트워크 정책](https://kubernetes.io/docs/concepts/services-networking/network-policies/)은 클러스터 내부 및 외부 모두에서 수신 및 송신 트래픽을 제어하기 위한 메커니즘을 제공합니다. 애플리케이션이 다른 AWS 서비스에 대한 종속성이 제한적인 경우 Kubernetes 네트워크 정책을 고려해야 합니다. SG와 같은 AWS 기본 의미 체계와 반대로 AWS 서비스에 대한 액세스를 제한하기 위해 CIDR 범위를 기반으로 송신 규칙을 지정하는 네트워크 정책을 구성할 수 있습니다. Kubernetes 네트워크 정책을 사용하여 파드 간(종종 East/West 트래픽이라고도 함) 및 파드와 외부 서비스 간의 네트워크 트래픽을 제어할 수 있습니다. Kubernetes 네트워크 정책은 OSI 레벨 3과 4에서 구현됩니다.
Amazon EKS를 사용하면 [Calico](https://projectcalico.docs.tigera.io/getting-started/kubernetes/managed-public-cloud/eks) 및 [Cilium](https://와 같은 네트워크 정책 엔진을 사용할 수 있습니다. docs.cilium.io/en/stable/intro/). 기본적으로 네트워크 정책 엔진은 설치되지 않습니다. 설정 방법에 대한 지침은 해당 설치 가이드를 확인하세요. 네트워크 정책 사용 방법에 대한 자세한 내용은 [EKS 보안 모범 사례](https://aws.github.io/aws-eks-best-practices/security/docs/network/#network-policy)를 참조하세요. DNS 호스트 이름 기능은 엔터프라이즈 버전의 네트워크 정책 엔진에서 사용할 수 있으며, 이는 Kubernetes 서비스/파드와 AWS 외부에서 실행되는 리소스 간의 트래픽을 제어하는 데 유용할 수 있습니다. 또한 기본적으로 보안 그룹을 지원하지 않는 AWS 서비스에 대한 DNS 호스트 이름 지원을 고려할 수 있습니다.
### AWS Loadbalancer Controller를 사용하도록 단일 보안 그룹에 태그 지정
많은 보안 그룹이 파드에 할당된 경우 Amazon EKS는 공유 또는 소유된 [`kubernetes.io/cluster/$name`](http://kubernetes.io/cluster/$name)으로 단일 보안 그룹에 태그를 지정할 것을 권장합니다. 태그를 사용하면 AWS Loadbalancer Controller가 보안 그룹의 규칙을 업데이트하여 트래픽을 파드로 라우팅할 수 있습니다. 파드에 하나의 보안 그룹만 제공되는 경우 태그 할당은 선택 사항입니다. 보안 그룹에 설정된 권한은 추가되므로 로드밸런서 컨트롤러가 규칙을 찾고 조정하려면 단일 보안 그룹에 태그를 지정하는 것으로 충분합니다. 또한 보안 그룹에서 정의한 [기본 할당량](https://docs.aws.amazon.com/vpc/latest/userguide/amazon-vpc-limits.html#vpc-limits-security-groups)을 준수하는 데 도움이 됩니다.
### 아웃바운드 트래픽에 대한 NAT 구성
소스 NAT는 보안 그룹이 할당된 파드의 아웃바운드 트래픽에 대해 비활성화됩니다. 인터넷 액세스가 필요한 보안 그룹을 사용하는 파드의 경우 NAT 게이트웨이 또는 인스턴스로 구성된 프라이빗 서브넷에서 워커 노드를 시작하고 CNI에서 [외부 SNAT](https://docs.aws.amazon.com/eks/latest/userguide/external-snat.html)를 활성화합니다.
```
kubectl set env daemonset -n kube-system aws-node AWS_VPC_K8S_CNI_EXTERNALSNAT=true
```
### 보안 그룹이 있는 파드를 프라이빗 서브넷에 배포
보안 그룹이 할당된 파드는 프라이빗 서브넷에 배포된 노드에서 실행되어야 합니다. 단 퍼블릭 서브넷에 배포된 보안 그룹이 할당된 파드는 인터넷에 액세스할 수 없습니다.
### 파드 스펙에서 *terminationGracePeriodSeconds* 부분 확인
파드 사양 파일에서 'terminationGracePeriodSeconds'가 0이 아닌지 확인하세요. (기본값 30초) 이는 Amazon VPC CNI가 워커 노드에서 파드 네트워크를 삭제하는 데 필수적입니다. 0으로 설정하면 CNI 플러그인이 호스트에서 파드 네트워크를 제거하지 않으며 분기 ENI가 효과적으로 정리되지 않습니다.
### Fargate를 이용하는 파드용 보안 그룹 사용
Fargate에서 실행되는 파드의 보안 그룹은 EC2 워커 노드에서 실행되는 파드와 매우 유사하게 작동한다. 예를 들어 Fargate 파드에 연결하는 보안 그룹 정책에서 보안 그룹을 참조하기 전에 먼저 보안 그룹을 생성해야 합니다.기본적으로 보안 그룹 정책을 Fargate 파드에 명시적으로 할당하지 않으면 [클러스터 보안 그룹](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)이 모든 Fargate 파드에 할당됩니다. 단순화를 위해 Fagate Pod의 SecurityGroupPolicy에 클러스터 보안 그룹을 추가할 수도 있습니다. 그렇지 않으면 보안 그룹에 최소 보안 그룹 규칙을 추가해야 합니다. 설명 클러스터 API를 사용하여 클러스터 보안 그룹을 찾을 수 있습니다.
```bash
aws eks describe-cluster --name CLUSTER_NAME --query 'cluster.resourcesVpcConfig.clusterSecurityGroupId'
```
```bash
cat >my-fargate-sg-policy.yaml <<EOF
apiVersion: vpcresources.k8s.aws/v1beta1
kind: SecurityGroupPolicy
metadata:
name: my-fargate-sg-policy
namespace: my-fargate-namespace
spec:
podSelector:
matchLabels:
role: my-fargate-role
securityGroups:
groupIds:
- cluster_security_group_id
- my_fargate_pod_security_group_id
EOF
```
최소 보안 그룹 규칙은 [여기](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)에 나와 있습니다. 이런 규칙을 통해 Fargate 파드는 kube-apiserver, kubelet, CoreDNS와 같은 클러스터 내 서비스와 통신할 수 있다. 또한 Fargate 파드와의 인바운드 및 아웃바운드 연결을 허용하는 규칙을 추가해야 합니다. 이렇게 하면 파드가 VPC의 다른 파드나 리소스와 통신할 수 있게 된다. 또한 Fargate가 Amazon ECR 또는 DockerHub와 같은 다른 컨테이너 레지스트리에서 컨테이너 이미지를 가져오도록 하는 규칙을 포함해야 합니다. 자세한 내용은 [AWS 일반 참조](https://docs.aws.amazon.com/general/latest/gr/aws-ip-ranges.html)의 AWS IP 주소 범위를 참조하십시오.
아래 명령을 사용하여 Fargate Pod에 적용된 보안 그룹을 찾을 수 있습니다.
```bash
kubectl get pod FARGATE_POD -o jsonpath='{.metadata.annotations.vpc\.amazonaws\.com/pod-eni}{"\n"}'
```
위 명령의 ENI ID를 적어 둡니다.
```bash
aws ec2 describe-network-interfaces --network-interface-ids ENI_ID --query 'NetworkInterfaces[*].Groups[*]'
```
새 보안 그룹을 적용하려면 기존 Fargate 파드를 삭제하고 다시 만들어야 합니다. 예를 들어 다음 명령은 example-app 배포를 시작합니다. 특정 파드를 업데이트하려면 아래 명령어에서 네임스페이스와 디플로이먼트 이름을 변경할 수 있습니다.
```bash
kubectl rollout restart -n example-ns deployment example-pod
```
| eks | search exclude true Security Group for Pod SGP AWS EC2 Amazon VPC CNI ENI RDS RDS Pod illustration of node with security group connecting to RDS image png EC2 AWS Kubernetes API Amazon RDS illustration of pod and node with different security groups connecting to RDS image 2 png VPC CNI ENABLE POD ENI true EKS VPC https github com aws amazon vpc resource controller k8s aws k8s trunk eni Amazon EKS AmazonEKSVPCResourceController aws k8s branch eni SecurityGroupPolicy https github com aws amazon vpc resource controller k8s blob master config crd bases vpcresources k8s aws securitygrouppolicies yaml EKS https docs aws amazon com eks latest userguide security groups for pods html illustration of worker subnet with security groups associated with ENIs image 3 png IP max pods max pods m5 large 9 27 IP m5 large max pods 29 EKS Pod Pod max pods EKS https docs aws amazon com eks latest userguide cni increase ip addresses html https docs aws amazon com eks latest userguide cni custom network html ENIConfig TCP Early Demux kubelet TCP TCP Early Dmux kubectl edit daemonset aws node n kube system DISABLE TCP EARLY DEMUX true Pod AWS RDS EC2 VPC AWS AWS ENI EC2 EKS AWS Enforcing Amazon VPC CNI 1 11 POD SECURITY GROUP ENFORCING MODE enforcing NAT ENABLE POD ENI true VPC CNI Strict ENI NAT Standard ENI ENI warning Enforcing Strict Pod Strict Strict NAT ENI Warning Enforcing Standard IP IP POD SECURITY GROUP ENFORCING MODE standard Kubernetes IP externalTrafficPolicy local externalTrafficPolicy Local NodePort LoadBalancer Kubernetes Local IP LoadBalancer NodePort NodeLocal DNSCache NodeLocal DNSCache https kubernetes io docs tasks administer cluster nodelocaldns NodeLocal DNSCache DNS DaemonSet DNS DNS QPS kube dns CoreDNS NodeLocal DNSCache VPC strict Kubernetes AWS East West Windows Nitro isTrunkingEnabled VPC AWS AWS EKS VPC RDS SG CIDR DNS VPC AWS Kubernetes https kubernetes io docs concepts services networking network policies AWS Kubernetes SG AWS AWS CIDR Kubernetes East West Kubernetes OSI 3 4 Amazon EKS Calico https projectcalico docs tigera io getting started kubernetes managed public cloud eks Cilium https docs cilium io en stable intro EKS https aws github io aws eks best practices security docs network network policy DNS Kubernetes AWS AWS DNS AWS Loadbalancer Controller Amazon EKS kubernetes io cluster name http kubernetes io cluster name AWS Loadbalancer Controller https docs aws amazon com vpc latest userguide amazon vpc limits html vpc limits security groups NAT NAT NAT CNI SNAT https docs aws amazon com eks latest userguide external snat html kubectl set env daemonset n kube system aws node AWS VPC K8S CNI EXTERNALSNAT true terminationGracePeriodSeconds terminationGracePeriodSeconds 0 30 Amazon VPC CNI 0 CNI ENI Fargate Fargate EC2 Fargate Fargate https docs aws amazon com eks latest userguide sec group reqs html Fargate Fagate Pod SecurityGroupPolicy API bash aws eks describe cluster name CLUSTER NAME query cluster resourcesVpcConfig clusterSecurityGroupId bash cat my fargate sg policy yaml EOF apiVersion vpcresources k8s aws v1beta1 kind SecurityGroupPolicy metadata name my fargate sg policy namespace my fargate namespace spec podSelector matchLabels role my fargate role securityGroups groupIds cluster security group id my fargate pod security group id EOF https docs aws amazon com eks latest userguide sec group reqs html Fargate kube apiserver kubelet CoreDNS Fargate VPC Fargate Amazon ECR DockerHub AWS https docs aws amazon com general latest gr aws ip ranges html AWS IP Fargate Pod bash kubectl get pod FARGATE POD o jsonpath metadata annotations vpc amazonaws com pod eni n ENI ID bash aws ec2 describe network interfaces network interface ids ENI ID query NetworkInterfaces Groups Fargate example app bash kubectl rollout restart n example ns deployment example pod |
eks search DNS CoreDNS exclude true EKS | ---
search:
exclude: true
---
# 네트워크 성능 문제에 대한 EKS 워크로드 모니터링
## DNS 스로틀링 문제에 대한 CoreDNS 트래픽 모니터링
DNS 집약적 워크로드를 실행하면 DNS 스로틀링으로 인해 간헐적으로 CoreDNS 장애가 발생할 수 있으며, 이로 인해 가끔 알 수 없는 Hostexception 오류가 발생할 수 있는 애플리케이션에 영향을 미칠 수 있습니다.
CoreDNS 배포에는 Kubernetes 스케줄러가 클러스터의 개별 워커 노드에서 CoreDNS 인스턴스를 실행하도록 지시하는 반선호도 정책이 있습니다. 즉, 동일한 워커 노드에 복제본을 같은 위치에 배치하지 않도록 해야 합니다. 이렇게 하면 각 복제본의 트래픽이 다른 ENI를 통해 라우팅되므로 네트워크 인터페이스당 DNS 쿼리 수가 효과적으로 줄어듭니다. 초당 1024개의 패킷 제한으로 인해 DNS 쿼리가 병목 현상을 겪는 경우 1) 코어 DNS 복제본 수를 늘리거나 2) [NodeLocal DNS 캐시](https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/)를 구현해 볼 수 있습니다.자세한 내용은 [CoreDNS 메트릭 모니터링](https://aws.github.io/aws-eks-best-practices/reliability/docs/networkmanagement/#monitor-coredns-metrics)을 참조하십시오.
### 도전 과제
* 패킷 드롭은 몇 초 만에 발생하며 DNS 스로틀링이 실제로 발생하는지 확인하기 위해 이런 패턴을 적절하게 모니터링하는 것은 까다로울 수 있습니다.
* DNS 쿼리는 엘라스틱 네트워크 인터페이스 수준에서 조절됩니다. 따라서 병목 현상이 발생한 쿼리는 쿼리 로깅에 나타나지 않습니다.
* 플로우 로그는 모든 IP 트래픽을 캡처하지 않습니다. 예: 인스턴스가 Amazon DNS 서버에 접속할 때 생성되는 트래픽 자체 DNS 서버를 사용하는 경우 해당 DNS 서버로 향하는 모든 트래픽이 로깅됩니다.
### 솔루션
워커 노드의 DNS 조절 문제를 쉽게 식별할 수 있는 방법은 `linklocal_allowance_exeded` 메트릭을 캡처하는 것입니다. [linklocal_allowance_exceeded](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/metrics-collected-by-CloudWatch-agent.html#linux-metrics-enabled-by-CloudWatch-agent)는 로컬 프록시 서비스에 대한 트래픽의 PPS가 네트워크 인터페이스의 최대값을 초과하여 삭제된 패킷 수입니다. 이는 DNS 서비스, 인스턴스 메타데이터 서비스 및 Amazon Time Sync 서비스에 대한 트래픽에 영향을 미칩니다. 이 이벤트를 실시간으로 추적하는 대신 이 지표를 [Amazon Managed Service for Prometheus](https://aws.amazon.com/prometheus/)에도 스트리밍하여 [Amazon Managed Grafana](https://aws.amazon.com/grafana/)에서 시각화할 수 있습니다.
## Conntrack 메트릭을 사용하여 DNS 쿼리 지연 모니터링
CoreDNS 스로틀링/쿼리 지연을 모니터링하는 데 도움이 될 수 있는 또 다른 지표는 `conntrack_allowance_available`과 `conntrack_allowance_exceed`입니다.
연결 추적 허용량을 초과하여 발생하는 연결 장애는 다른 허용치를 초과하여 발생하는 연결 실패보다 더 큰 영향을 미칠 수 있습니다. TCP를 사용하여 데이터를 전송하는 경우, 대역폭, PPS 등과 같이 EC2 인스턴스 네트워크 허용량을 초과하여 대기열에 있거나 삭제되는 패킷은 일반적으로 TCP의 혼잡 제어 기능 덕분에 정상적으로 처리됩니다. 영향을 받은 흐름은 느려지고 손실된 패킷은 재전송됩니다. 그러나 인스턴스가 Connections Tracked 허용량을 초과하는 경우 새 연결을 위한 공간을 마련하기 위해 기존 연결 중 일부를 닫기 전까지는 새 연결을 설정할 수 없습니다.
`conntrack_allowance_available` 및 `conntrack_allowance_exceed`는 고객이 모든 인스턴스마다 달라지는 연결 추적 허용량을 모니터링하는 데 도움이 됩니다. 이런 네트워크 성능 지표를 통해 고객은 네트워크 대역폭, 초당 패킷 수 (PPS), 추적된 연결, 링크 로컬 서비스 액세스 (Amazon DNS, 인스턴스 메타 데이터 서비스, Amazon Time Sync) 와 같은 인스턴스의 네트워킹 허용량을 초과했을 때 대기 또는 삭제되는 패킷 수를 파악할 수 있습니다.
`conntrack_allowance_available`은 해당 인스턴스 유형의 추적된 연결 허용량에 도달하기 전에 인스턴스가 설정할 수 있는 추적된 연결 수입니다 (니트로 기반 인스턴스에서만 지원됨).
`conntrack_allowance_exceed`는 인스턴스의 연결 추적이 최대치를 초과하여 새 연결을 설정할 수 없어서 삭제된 패킷 수입니다.
## 기타 중요한 네트워크 성능 지표
기타 중요한 네트워크 성능 지표는 다음과 같습니다.
`bw_in_allowance_exceed` (이상적인 지표 값은 0이어야 함) 는 인바운드 집계 대역폭이 인스턴스의 최대값을 초과하여 대기 및/또는 삭제된 패킷 수입니다.
`bw_out_allowance_exceed` (이상적인 지표 값은 0이어야 함) 는 아웃바운드 총 대역폭이 해당 인스턴스의 최대값을 초과하여 대기 및/또는 삭제된 패킷 수입니다.
`pps_allowance_exceed` (이상적인 지표 값은 0이어야 함) 는 양방향 PPS가 인스턴스의 최대값을 초과하여 대기 및/또는 삭제된 패킷 수입니다.
## 네트워크 성능 문제에 대한 워크로드 모니터링을 위한 지표 캡처
Elastic Network Adapter (ENA) 드라이버는 위에서 설명한 네트워크 성능 메트릭이 활성화된 인스턴스로부터 해당 메트릭을 게시합니다. CloudWatch 에이전트를 사용하여 모든 네트워크 성능 지표를 CloudWatch에 게시할 수 있습니다. 자세한 내용은 [블로그](https://aws.amazon.com/blogs/networking-and-content-delivery/amazon-ec2-instance-level-network-performance-metrics-uncover-new-insights/)를 참조하십시오.
이제 위에서 설명한 지표를 캡처하여 Prometheus용 Amazon Managed Service에 저장하고 Amazon Managed Grafana를 사용하여 시각화해 보겠습니다.
### 사전 요구 사항
* ethtool - 워커 노드에 ethtool이 설치되어 있는지 확인하십시오.
* AWS 계정에 구성된 AMP 워크스페이스.지침은 AMP 사용 설명서의 [워크스페이스 만들기](https://docs.aws.amazon.com/prometheus/latest/userguide/AMP-onboard-create-workspace.html)를 참조하십시오.
* Amazon Managed Grafana 워크스페이스
### 프로메테우스 ethtool 익스포터 구축
배포에는 ethtool에서 정보를 가져와 프로메테우스 형식으로 게시하는 Python 스크립트가 포함되어 있습니다.
```
kubectl apply -f https://raw.githubusercontent.com/Showmax/prometheus-ethtool-exporter/master/deploy/k8s-daemonset.yaml
```
### ADOT 컬렉터를 배포하여 ethtool 메트릭을 스크랩하고 프로메테우스용 아마존 매니지드 서비스 워크스페이스에 저장
OpenTelemetry용 AWS 배포판 (ADOT) 을 설치하는 각 클러스터에는 이 역할이 있어야 AWS 서비스 어카운트에 메트릭을 Prometheus용 Amazon 관리형 서비스에 저장할 수 있는 권한을 부여할 수 있습니다.다음 단계에 따라 IRSA를 사용하여 IAM 역할을 생성하고 Amazon EKS 서비스 어카운트에 연결하십시오.
```
eksctl create iamserviceaccount --name adot-collector --namespace default --cluster <CLUSTER_NAME> --attach-policy-arn arn:aws:iam::aws:policy/AmazonPrometheusRemoteWriteAccess --attach-policy-arn arn:aws:iam::aws:policy/AWSXrayWriteOnlyAccess --attach-policy-arn arn:aws:iam::aws:policy/CloudWatchAgentServerPolicy --region <REGION> --approve --override-existing-serviceaccounts
```
ADOT 컬렉터를 배포하여 프로메테우스 ethtool 익스포터의 메트릭을 스크랩하여 프로메테우스용 아마존 매니지드 서비스에 저장해 보겠습니다.
다음 절차에서는 배포를 모드 값으로 사용하는 예제 YAML 파일을 사용합니다. 이 모드는 기본 모드이며 독립 실행형 응용 프로그램과 유사하게 ADOT Collector를 배포합니다. 이 구성은 클러스터의 파드에서 스크랩한 샘플 애플리케이션과 Amazon Managed Service for Prometheus 지표로부터 OTLP 지표를 수신합니다.
```
curl -o collector-config-amp.yaml https://raw.githubusercontent.com/aws-observability/aws-otel-community/master/sample-configs/operator/collector-config-amp.yaml
```
컬렉터-config-amp.yaml에서 다음을 사용자 고유의 값으로 바꾸십시오.
* mode: deployment
* serviceAccount: adot-collector
* endpoint: "<YOUR_REMOTE_WRITE_ENDPOINT>"
* region: "<YOUR_AWS_REGION>"
* name: adot-collector
```
kubectl apply -f collector-config-amp.yaml
```
채택 수집기가 배포되면 지표가 Amazon Prometheus에 성공적으로 저장됩니다.
### Prometheus가 알림을 보내도록 Amazon 관리 서비스의 알림 관리자를 구성
지금까지 설명한 메트릭을 확인하기 위해 기록 규칙 및 경고 규칙을 구성해 보겠습니다.
[프로메테우스용 아마존 매니지드 서비스용 ACK 컨트롤러](https://github.com/aws-controllers-k8s/prometheusservice-controller)를 사용하여 알림 및 기록 규칙을 규정할 것입니다.
프로메테우스용 Amazon 관리 서비스 서비스를 위한 ACL 컨트롤러를 배포해 보겠습니다.
```
export SERVICE=prometheusservice
export RELEASE_VERSION=`curl -sL https://api.github.com/repos/aws-controllers-k8s/$SERVICE-controller/releases/latest | grep '"tag_name":' | cut -d'"' -f4`
export ACK_SYSTEM_NAMESPACE=ack-system
export AWS_REGION=us-east-1
aws ecr-public get-login-password --region us-east-1 | helm registry login --username AWS --password-stdin public.ecr.aws
helm install --create-namespace -n $ACK_SYSTEM_NAMESPACE ack-$SERVICE-controller \
oci://public.ecr.aws/aws-controllers-k8s/$SERVICE-chart --version=$RELEASE_VERSION --set=aws.region=$AWS_REGION
```
명령을 실행하면 몇 분 후 다음 메시지가 표시됩니다.
```
You are now able to create Amazon Managed Service for Prometheus (AMP) resources!
The controller is running in "cluster" mode.
The controller is configured to manage AWS resources in region: "us-east-1"
The ACK controller has been successfully installed and ACK can now be used to provision an Amazon Managed Service for Prometheus workspace.
```
이제 경고 관리자 정의 및 규칙 그룹을 프로비저닝하기 위한 yaml 파일을 생성해 보겠습니다.
아래 파일을 `rulegroup.yaml`로 저장합니다.
```
apiVersion: prometheusservice.services.k8s.aws/v1alpha1
kind: RuleGroupsNamespace
metadata:
name: default-rule
spec:
workspaceID: <Your WORKSPACE-ID>
name: default-rule
configuration: |
groups:
- name: ppsallowance
rules:
- record: metric:pps_allowance_exceeded
expr: rate(node_net_ethtool{device="eth0",type="pps_allowance_exceeded"}[30s])
- alert: PPSAllowanceExceeded
expr: rate(node_net_ethtool{device="eth0",type="pps_allowance_exceeded"} [30s]) > 0
labels:
severity: critical
annotations:
summary: Connections dropped due to total allowance exceeding for the (instance )
description: "PPSAllowanceExceeded is greater than 0"
- name: bw_in
rules:
- record: metric:bw_in_allowance_exceeded
expr: rate(node_net_ethtool{device="eth0",type="bw_in_allowance_exceeded"}[30s])
- alert: BWINAllowanceExceeded
expr: rate(node_net_ethtool{device="eth0",type="bw_in_allowance_exceeded"} [30s]) > 0
labels:
severity: critical
annotations:
summary: Connections dropped due to total allowance exceeding for the (instance )
description: "BWInAllowanceExceeded is greater than 0"
- name: bw_out
rules:
- record: metric:bw_out_allowance_exceeded
expr: rate(node_net_ethtool{device="eth0",type="bw_out_allowance_exceeded"}[30s])
- alert: BWOutAllowanceExceeded
expr: rate(node_net_ethtool{device="eth0",type="bw_out_allowance_exceeded"} [30s]) > 0
labels:
severity: critical
annotations:
summary: Connections dropped due to total allowance exceeding for the (instance )
description: "BWoutAllowanceExceeded is greater than 0"
- name: conntrack
rules:
- record: metric:conntrack_allowance_exceeded
expr: rate(node_net_ethtool{device="eth0",type="conntrack_allowance_exceeded"}[30s])
- alert: ConntrackAllowanceExceeded
expr: rate(node_net_ethtool{device="eth0",type="conntrack_allowance_exceeded"} [30s]) > 0
labels:
severity: critical
annotations:
summary: Connections dropped due to total allowance exceeding for the (instance )
description: "ConnTrackAllowanceExceeded is greater than 0"
- name: linklocal
rules:
- record: metric:linklocal_allowance_exceeded
expr: rate(node_net_ethtool{device="eth0",type="linklocal_allowance_exceeded"}[30s])
- alert: LinkLocalAllowanceExceeded
expr: rate(node_net_ethtool{device="eth0",type="linklocal_allowance_exceeded"} [30s]) > 0
labels:
severity: critical
annotations:
summary: Packets dropped due to PPS rate allowance exceeded for local services (instance )
description: "LinkLocalAllowanceExceeded is greater than 0"
```
WORKSPACE-ID를 사용 중인 작업 공간의 작업 영역 ID로 바꾸십시오.
이제 알림 관리자 정의를 구성해 보겠습니다.아래 파일을 `alertmanager.yaml`으로 저장합니다.
```
apiVersion: prometheusservice.services.k8s.aws/v1alpha1
kind: AlertManagerDefinition
metadata:
name: alert-manager
spec:
workspaceID: <Your WORKSPACE-ID >
configuration: |
alertmanager_config: |
route:
receiver: default_receiver
receivers:
- name: default_receiver
sns_configs:
- topic_arn: TOPIC-ARN
sigv4:
region: REGION
message: |
alert_type:
event_type:
```
WORKSPACE-ID를 새 작업 공간의 작업 공간 ID로, TOPIC-ARN을 알림을 보내려는 [Amazon 단순 알림 서비스](https://aws.amazon.com/sns/) 주제의 ARN으로, 그리고 REGION을 워크로드의 현재 지역으로 대체합니다. 작업 영역에 Amazon SNS로 메시지를 보낼 권한이 있는지 확인하십시오.
### 아마존 매니지드 그라파나에서 ethtool 메트릭을 시각화
Amazon Managed Grafana 내에서 지표를 시각화하고 대시보드를 구축해 보겠습니다.프로메테우스용 아마존 매니지드 서비스를 아마존 매니지드 그라파나 콘솔 내에서 데이터 소스로 구성하십시오.지침은 [아마존 프로메테우스를 데이터 소스로 추가](https://docs.aws.amazon.com/grafana/latest/userguide/AMP-adding-AWS-config.html)를 참조하십시오.
이제 아마존 매니지드 그라파나의 메트릭을 살펴보겠습니다.
탐색 버튼을 클릭하고 ethtool을 검색하세요.
![Node_ethtool metrics](./explore_metrics.png)
`rate (node_net_ethtool {device="eth0", type="linklocal_allowance_Exceed "} [30s])` 쿼리를 사용하여 linklocal_allowance_Exceed 지표에 대한 대시보드를 만들어 보겠습니다.그러면 아래 대시보드가 나타납니다.
![linklocal_allowance_exceeded dashboard](./linklocal.png)
값이 0이므로 삭제된 패킷이 없음을 분명히 알 수 있습니다.
`rate (node_net_ethtool {device="eth0", type="conntrack_allowance_Exceed "} [30s])` 쿼리를 사용하여 conntrack_allowance_Exceed 메트릭에 대한 대시보드를 만들어 보겠습니다.결과는 아래 대시보드와 같습니다.
![conntrack_allowance_exceeded dashboard](./conntrack.png)
[여기](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-network-performance.html)에 설명된 대로 클라우드워치 에이전트를 실행하면 `conntrack_allowance_exceed` 지표를 CloudWatch에서 시각화할 수 있습니다. CloudWatch의 결과 대시보드는 다음과 같이 표시됩니다.
![CW_NW_Performance](./cw_metrics.png)
값이 0이므로 삭제된 패킷이 없음을 분명히 알 수 있습니다.Nitro 기반 인스턴스를 사용하는 경우 'conntrack_allowance_available'에 대한 유사한 대시보드를 만들고 EC2 인스턴스의 연결을 사전에 모니터링할 수 있습니다.Amazon Managed Grafana에서 슬랙, SNS, Pagerduty 등에 알림을 보내도록 알림을 구성하여 이를 더욱 확장할 수 있습니다.
| eks | search exclude true EKS DNS CoreDNS DNS DNS CoreDNS Hostexception CoreDNS Kubernetes CoreDNS ENI DNS 1024 DNS 1 DNS 2 NodeLocal DNS https kubernetes io docs tasks administer cluster nodelocaldns CoreDNS https aws github io aws eks best practices reliability docs networkmanagement monitor coredns metrics DNS DNS IP Amazon DNS DNS DNS DNS linklocal allowance exeded linklocal allowance exceeded https docs aws amazon com AmazonCloudWatch latest monitoring metrics collected by CloudWatch agent html linux metrics enabled by CloudWatch agent PPS DNS Amazon Time Sync Amazon Managed Service for Prometheus https aws amazon com prometheus Amazon Managed Grafana https aws amazon com grafana Conntrack DNS CoreDNS conntrack allowance available conntrack allowance exceed TCP PPS EC2 TCP Connections Tracked conntrack allowance available conntrack allowance exceed PPS Amazon DNS Amazon Time Sync conntrack allowance available conntrack allowance exceed bw in allowance exceed 0 bw out allowance exceed 0 pps allowance exceed 0 PPS Elastic Network Adapter ENA CloudWatch CloudWatch https aws amazon com blogs networking and content delivery amazon ec2 instance level network performance metrics uncover new insights Prometheus Amazon Managed Service Amazon Managed Grafana ethtool ethtool AWS AMP AMP https docs aws amazon com prometheus latest userguide AMP onboard create workspace html Amazon Managed Grafana ethtool ethtool Python kubectl apply f https raw githubusercontent com Showmax prometheus ethtool exporter master deploy k8s daemonset yaml ADOT ethtool OpenTelemetry AWS ADOT AWS Prometheus Amazon IRSA IAM Amazon EKS eksctl create iamserviceaccount name adot collector namespace default cluster CLUSTER NAME attach policy arn arn aws iam aws policy AmazonPrometheusRemoteWriteAccess attach policy arn arn aws iam aws policy AWSXrayWriteOnlyAccess attach policy arn arn aws iam aws policy CloudWatchAgentServerPolicy region REGION approve override existing serviceaccounts ADOT ethtool YAML ADOT Collector Amazon Managed Service for Prometheus OTLP curl o collector config amp yaml https raw githubusercontent com aws observability aws otel community master sample configs operator collector config amp yaml config amp yaml mode deployment serviceAccount adot collector endpoint YOUR REMOTE WRITE ENDPOINT region YOUR AWS REGION name adot collector kubectl apply f collector config amp yaml Amazon Prometheus Prometheus Amazon ACK https github com aws controllers k8s prometheusservice controller Amazon ACL export SERVICE prometheusservice export RELEASE VERSION curl sL https api github com repos aws controllers k8s SERVICE controller releases latest grep tag name cut d f4 export ACK SYSTEM NAMESPACE ack system export AWS REGION us east 1 aws ecr public get login password region us east 1 helm registry login username AWS password stdin public ecr aws helm install create namespace n ACK SYSTEM NAMESPACE ack SERVICE controller oci public ecr aws aws controllers k8s SERVICE chart version RELEASE VERSION set aws region AWS REGION You are now able to create Amazon Managed Service for Prometheus AMP resources The controller is running in cluster mode The controller is configured to manage AWS resources in region us east 1 The ACK controller has been successfully installed and ACK can now be used to provision an Amazon Managed Service for Prometheus workspace yaml rulegroup yaml apiVersion prometheusservice services k8s aws v1alpha1 kind RuleGroupsNamespace metadata name default rule spec workspaceID Your WORKSPACE ID name default rule configuration groups name ppsallowance rules record metric pps allowance exceeded expr rate node net ethtool device eth0 type pps allowance exceeded 30s alert PPSAllowanceExceeded expr rate node net ethtool device eth0 type pps allowance exceeded 30s 0 labels severity critical annotations summary Connections dropped due to total allowance exceeding for the instance description PPSAllowanceExceeded is greater than 0 name bw in rules record metric bw in allowance exceeded expr rate node net ethtool device eth0 type bw in allowance exceeded 30s alert BWINAllowanceExceeded expr rate node net ethtool device eth0 type bw in allowance exceeded 30s 0 labels severity critical annotations summary Connections dropped due to total allowance exceeding for the instance description BWInAllowanceExceeded is greater than 0 name bw out rules record metric bw out allowance exceeded expr rate node net ethtool device eth0 type bw out allowance exceeded 30s alert BWOutAllowanceExceeded expr rate node net ethtool device eth0 type bw out allowance exceeded 30s 0 labels severity critical annotations summary Connections dropped due to total allowance exceeding for the instance description BWoutAllowanceExceeded is greater than 0 name conntrack rules record metric conntrack allowance exceeded expr rate node net ethtool device eth0 type conntrack allowance exceeded 30s alert ConntrackAllowanceExceeded expr rate node net ethtool device eth0 type conntrack allowance exceeded 30s 0 labels severity critical annotations summary Connections dropped due to total allowance exceeding for the instance description ConnTrackAllowanceExceeded is greater than 0 name linklocal rules record metric linklocal allowance exceeded expr rate node net ethtool device eth0 type linklocal allowance exceeded 30s alert LinkLocalAllowanceExceeded expr rate node net ethtool device eth0 type linklocal allowance exceeded 30s 0 labels severity critical annotations summary Packets dropped due to PPS rate allowance exceeded for local services instance description LinkLocalAllowanceExceeded is greater than 0 WORKSPACE ID ID alertmanager yaml apiVersion prometheusservice services k8s aws v1alpha1 kind AlertManagerDefinition metadata name alert manager spec workspaceID Your WORKSPACE ID configuration alertmanager config route receiver default receiver receivers name default receiver sns configs topic arn TOPIC ARN sigv4 region REGION message alert type event type WORKSPACE ID ID TOPIC ARN Amazon https aws amazon com sns ARN REGION Amazon SNS ethtool Amazon Managed Grafana https docs aws amazon com grafana latest userguide AMP adding AWS config html ethtool Node ethtool metrics explore metrics png rate node net ethtool device eth0 type linklocal allowance Exceed 30s linklocal allowance Exceed linklocal allowance exceeded dashboard linklocal png 0 rate node net ethtool device eth0 type conntrack allowance Exceed 30s conntrack allowance Exceed conntrack allowance exceeded dashboard conntrack png https docs aws amazon com AmazonCloudWatch latest monitoring CloudWatch Agent network performance html conntrack allowance exceed CloudWatch CloudWatch CW NW Performance cw metrics png 0 Nitro conntrack allowance available EC2 Amazon Managed Grafana SNS Pagerduty |
eks search iframe width 560 height 315 src https www youtube com embed zdXpTT0bZXo title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe exclude true IPv6 EKS | ---
search:
exclude: true
---
# IPv6 EKS 클러스터 실행
<iframe width="560" height="315" src="https://www.youtube.com/embed/zdXpTT0bZXo" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
IPv6 모드의 EKS는 대규모 EKS 클러스터에서 자주 나타나는 IPv4 고갈 문제를 해결합니다. EKS의 IPv6 지원은 IPv4 주소 공간의 제한된 크기로 인해 발생하는 IPv4 고갈 문제를 해결하는 데 중점을 두고 있습니다. 이는 많은 고객이 제기한 중요한 우려 사항이며 Kubernetes의 "[IPv4/IPv6 이중 스택](https://kubernetes.io/docs/concepts/services-networking/dual-stack/)" 기능과는 다릅니다.
또한 EKS/IPv6는 IPv6 CIDR을 사용하여 네트워크 경계를 상호 연결할 수 있는 유연성을 제공하므로 CIDR 중복으로 발생할 가능성을 최소화하여 2중 문제(클러스터 내, 클러스터 간)를 해결합니다.
IPv6 EKS 클러스터에서 파드와 서비스는 레거시 IPv4 엔드포인트와의 호환성을 유지하면서 IPv6 주소를 수신합니다. 여기에는 외부 IPv4 엔드포인트가 클러스터 내 서비스에 액세스하는 기능과 파드가 외부 IPv4 엔드포인트에 액세스하는 기능이 포함됩니다.
Amazon EKS IPv6 지원은 네이티브 VPC IPv6 기능을 활용합니다. 각 VPC에는 IPv4 주소 Prefix (CIDR 블록 크기는 /16에서 /28까지 가능) 및 아마존 GUA (글로벌 유니캐스트 주소) 내의 고유한 /56 IPv6 주소 Prefix (고정) 가 할당됩니다. VPC의 각 서브넷에 /64 주소 Prefix를 할당할 수 있습니다. 라우팅 테이블, 네트워크 액세스 제어 목록, 피어링, DNS 확인과 같은 IPv4 기능은 IPv6 지원 VPC에서 동일한 방식으로 작동합니다. VPC를 이중 스택 VPC라고 하며 이중 스택 서브넷에 이어 다음 다이어그램은 EK/IPv6 기반 클러스터를 지원하는 IPv4&IPv6 VPC 기반 패턴을 보여줍니다.
![Dual Stack VPC, mandatory foundation for EKS cluster in IPv6 mode](./eks-ipv6-foundation.png)
IPv6 환경에서는 모든 주소를 인터넷으로 라우팅할 수 있습니다. 기본적으로 VPC는 퍼블릭 GUA 범위에서 IPv6 CIDR을 할당합니다. VPC는 RFC 4193 (fd00: :/8 또는 fc00: :/8) 에 정의된 [고유 로컬 주소 (ULA)](https://en.wikipedia.org/wiki/Unique_local_address) 범위에서 프라이빗 IPv6 주소를 할당하는 것을 지원하지 않습니다. 이는 사용자가 소유한 IPv6 CIDR을 할당하려는 경우에도 마찬가지입니다. VPC에 외부 전용 인터넷 게이트웨이 (EIGW) 를 구현하여 들어오는 트래픽은 모두 차단하면서 아웃바운드 트래픽은 허용함으로써 프라이빗 서브넷에서 인터넷으로 나가는 것을 지원합니다.
다음 다이어그램은 EKS/IPv6 클러스터 내의 Pod IPv6 인터넷 송신 흐름을 보여줍니다.
![Dual Stack VPC, EKS Cluster in IPv6 Mode, Pods in private subnets egressing to Internet IPv6 endpoints](./eks-egress-ipv6.png)
IPv6 서브넷을 구현하는 모범 사례는 [VPC 사용 설명서](https://docs.aws.amazon.com/whitepapers/latest/ipv6-on-aws/IPv6-on-AWS.html)에서 확인할 수 있습니다.
IPv6 EKS 클러스터에서 노드와 파드는 퍼블릭 IPv6 주소를 갖습니다. EKS는 고유한 로컬 IPv6 유니캐스트 주소 (ULA) 를 기반으로 서비스에 IPv6 주소를 할당합니다. IPv6 클러스터의 ULA 서비스 CIDR은 IPv4와 달리 클러스터 생성 단계에서 자동으로 할당되며 지정할 수 없습니다. 다음 다이어그램은 EKS/IPv6 기반 클러스터 컨트롤 플레인 및 데이터 플랜 기반 패턴을 보여줍니다.
![Dual Stack VPC, EKS Cluster in IPv6 Mode, control plane ULA, data plane IPv6 GUA for EC2 & Pods](./eks-cluster-ipv6-foundation.png)
## 개요
EKS/IPv6는 Prefix 모드 (VPC-CNI 플러그인 ENI IP 할당 모드) 에서만 지원됩니다. [Prefix 모드](https://aws.github.io/aws-eks-best-practices/networking/prefix-mode/index_linux/)에 대해 자세히 알아보십시오.
> Prefix 할당은 Nitro 기반 EC2 인스턴스에서만 작동하므로 EKS/IPv6는 클러스터 데이터 플레인이 EC2 Nitro 기반 인스턴스를 사용하는 경우에만 지원됩니다.
간단히 말해서 IPv6 Prefix가 /80 (워커 노드당) 이면 최대 10^14 IPv6 주소가 생성되며, 제한 요소는 더 이상 IP가 아니라 파드의 밀도입니다 (참고 자료 기준).
IPv6 Prefix 할당은 EKS 워커 노드 부트스트랩 시에만 발생합니다.
이 동작은 프라이빗 IPv4 주소를 적시에 할당하기 위한 VPC CNI 플러그인 (ipamd) 에서 생성되는 API 호출 속도 제한으로 인해 파드 스케줄링에서 파드 이탈이 심한 EKS/IPv4 클러스터가 종종 지연되는 시나리오를 완화하는 것으로 알려져 있습니다. 또한 VPC-CNI 플러그인 고급 설정 튜닝 [WARM_IP/ENI*, MINIMUM_IP*](https://github.com/aws/amazon-vpc-cni-k8s#warm_ip_target)을 불필요하게 만드는 것으로 알려져 있습니다.
다음 다이어그램은 IPv6 워커 노드 ENI (엘라스틱 네트워크 인터페이스) 를 확대한 것입니다.
![illustration of worker subnet, including primary ENI with multiple IPv6 Addresses](./image-2.png)
모든 EKS 워커 노드에는 해당 DNS 항목과 함께 IPv4 및 IPv6 주소가 할당됩니다. 특정 워커 노드의 경우 이중 스택 서브넷의 단일 IPv4 주소만 사용됩니다. IPv6에 대한 EKS 지원을 통해 독보적인 외부 전용 IPv4 모델을 통해 IPv4 엔드포인트 (AWS, 온프레미스, 인터넷) 와 통신할 수 있습니다. EKS는 Pod에 IPv4 주소를 할당하고 구성하는 VPC CNI 플러그인의 보조 기능인 호스트-로컬 CNI 플러그인을 구현합니다. CNI 플러그인은 169.254.172.0/22 범위의 파드에 대해 호스트별로 라우팅할 수 없는 IPv4 주소를 할당합니다. 파드에 할당된 IPv4 주소는 *워커 노드에 고유한* 것으로 *워커 노드 이외의 다른 주소는 알려지지 않습니다*. 169.254.172.0/22는 대규모 인스턴스 유형을 지원할 수 있는 최대 1024개의 고유한 IPv4 주소를 제공합니다.
다음 다이어그램은 클러스터 경계 외부 (인터넷 아님) 에 있는 IPv4 엔드포인트에 연결하는 IPv6 Pod의 흐름을 보여줍니다.
![EKS/IPv6, IPv4 egress-only flow](./eks-ipv4-snat-cni.png)
위 다이어그램에서 파드는 엔드포인트에 대한 DNS 조회를 수행하고, IPv4 "A" 응답을 받으면 파드의 노드 전용 고유 IPv4 주소가 소스 네트워크 주소 변환 (SNAT) 을 통해 EC2 워커 노드에 연결된 기본 네트워크 인터페이스의 프라이빗 IPv4 (VPC) 주소로 변환됩니다.
또한 EK/IPv6 파드는 퍼블릭 IPv4 주소를 사용하여 인터넷을 통해 IPv4 엔드포인트에 연결해야 비슷한 흐름이 존재할 수 있습니다.
다음 다이어그램은 클러스터 경계 외부의 IPv4 엔드포인트에 연결하는 IPv6 Pod의 흐름을 보여줍니다 (인터넷 라우팅 가능).
![EKS/IPv6, IPv4 Internet egress-only flow](./eks-ipv4-snat-cni-internet.png)
위 다이어그램에서 파드는 엔드포인트에 대한 DNS 조회를 수행하고, IPv4 "A" 응답을 받으면 파드의 노드 전용 고유 IPv4 주소는 소스 네트워크 주소 변환 (SNAT) 을 통해 EC2 워커 노드에 연결된 기본 네트워크 인터페이스의 프라이빗 IPv4 (VPC) 주소로 변환됩니다. 그런 다음 파드 IPv4 주소 (소스 IPv4: EC2 기본 IP) 는 IPv4 NAT 게이트웨이로 라우팅되며, 여기서 EC2 기본 IP는 유효한 인터넷 라우팅 가능한 IPv4 퍼블릭 IP 주소 (NAT 게이트웨이 할당 퍼블릭 IP) 로 변환됩니다.
노드 간의 모든 파드 간 통신은 항상 IPv6 주소를 사용합니다. VPC CNI는 IPv4 연결을 차단하면서 IPv6를 처리하도록 iptables를 구성합니다.
쿠버네티스 서비스는 고유한 [로컬 IPv6 유니캐스트 주소 (ULA)](https://datatracker.ietf.org/doc/html/rfc4193) 에서 IPv6 주소 (클러스터IP) 만 수신합니다. IPv6 클러스터용 ULA 서비스 CIDR은 EKS 클러스터 생성 단계에서 자동으로 할당되며 수정할 수 없습니다. 다음 다이어그램은 파드에서 쿠버네티스 서비스로의 흐름을 나타냅니다.
![EKS/IPv6, IPv6 Pod to IPv6 k8s service (ClusterIP ULA) flow](./Pod-to-service-ipv6.png)
서비스는 AWS 로드밸런서를 사용하여 인터넷에 노출됩니다. 로드밸런서는 퍼블릭 IPv4 및 IPv6 주소, 즉 듀얼 스택 로드밸런서를 수신합니다. IPv6 클러스터 쿠버네티스 서비스에 액세스하는 IPv4 클라이언트의 경우 로드밸런서는 IPv4에서 IPv6으로의 변환을 수행합니다.
Amazon EKS는 프라이빗 서브넷에서 워커 노드와 파드를 실행할 것을 권장합니다. 퍼블릭 서브넷에 퍼블릭 로드밸런서를 생성하여 프라이빗 서브넷에 있는 노드에서 실행되는 파드로 트래픽을 로드 밸런싱할 수 있습니다.
다음 다이어그램은 EKS/IPv6 인그레스 기반 서비스에 액세스하는 인터넷 IPv4 사용자를 보여줍니다.
![인터넷 IPv4 사용자를 EKS/IPv6 인그레스 서비스로](./ipv4-internet-to-eks-ipv6.png)
> 참고: 위 패턴을 사용하려면 AWS 로드밸런서 컨트롤러의 [최신 버전](https://kubernetes-sigs.github.io/aws-load-balancer-controller)을 배포해야 합니다.
### EKS 컨트롤 플레인 <-> 데이터 플레인 통신
EKS는 듀얼 스택 모드 (IPv4/IPv6) 에서 크로스 어카운트 ENI (X-eni) 를 프로비저닝할 예정입니다. kubelet 및 kube-proxy와 같은 쿠버네티스 노드 구성 요소는 이중 스택을 지원하도록 구성되어 있습니다. Kubelet과 kube-proxy는 호스트네트워크 모드에서 실행되며 노드의 기본 네트워크 인터페이스에 연결된 IPv4 및 IPv6 주소 모두에 바인딩됩니다. 쿠버네티스 API 서버는 IPv6 기반인 X-ENI를 통해 파드 및 노드 컴포넌트와 통신합니다. 파드는 X-ENI를 통해 API 서버와 통신하며, 파드와 API-서버 간 통신은 항상 IPv6 모드를 사용한다.
![illustration of cluster including X-ENIs](./image-5.png)
## 권장 사항
### IPv4 EKS API에 대한 액세스 유지
EKS API는 IPv4에서만 액세스할 수 있습니다. 여기에는 클러스터 API 엔드포인트도 포함됩니다. IPv6 전용 네트워크에서는 클러스터 엔드포인트와 API에 액세스할 수 없습니다. 네트워크는 (1) IPv6와 IPv4 호스트 간의 통신을 용이하게 하는 NAT64/DNS64와 같은 IPv6 전환 메커니즘과 (2) IPv4 엔드포인트의 변환을 지원하는 DNS 서비스를 지원해야 합니다.
### 컴퓨팅 리소스 기반 일정
단일 IPv6 Prefix는 단일 노드에서 많은 파드를 실행하기에 충분하다.또한 이는 노드의 최대 파드 수에 대한 ENI 및 IP 제한을 효과적으로 제거합니다. IPv6는 최대 POD에 대한 직접적인 종속성을 제거하지만 m5.large와 같은 작은 인스턴스 유형에 Prefix 첨부 파일을 사용하면 IP 주소를 모두 사용하기 훨씬 전에 인스턴스의 CPU와 메모리 리소스가 고갈될 수 있습니다. 자체 관리형 노드 그룹 또는 사용자 지정 AMI ID가 있는 관리형 노드 그룹을 사용하는 경우 EKS 권장 최대 파드 값을 직접 설정해야 합니다.
다음 공식을 사용하여 IPv6 EKS 클러스터의 노드에 배포할 수 있는 최대 파드 수를 결정할 수 있습니다.
* ((인스턴스 유형별 네트워크 인터페이스 수 (네트워크 인터페이스당 Prefix 수-1)* 16) + 2
* ((3 ENIs)*((10 secondary IPs per ENI-1)* 16)) + 2 = 460 (real)
관리형 노드 그룹은 자동으로 최대 파드 수를 계산합니다. 리소스 제한으로 인한 파드 스케줄링 실패를 방지하려면 최대 파드 수에 대한 EKS 권장값을 변경하지 마세요.
### 기존의 사용자 지정 네트워킹의 목적 평가
[사용자 지정 네트워킹](https://aws.github.io/aws-eks-best-practices/networking/custom-networking/)이 현재 활성화되어 있는 경우 Amazon EKS는 IPv6에서 해당 네트워킹 요구 사항을 재평가할 것을 권장합니다. IPv4 고갈 문제를 해결하기 위해 사용자 지정 네트워킹을 사용하기로 선택한 경우 IPv6에서는 더 이상 사용자 지정 네트워킹을 사용할 필요가 없습니다. 사용자 지정 네트워킹을 사용하여 보안 요구 사항(예: 노드와 파드를 위한 별도의 네트워크)을 충족하는 경우 [EKS 로드맵 요청](https://github.com/aws/containers-roadmap/issues)을 제출하는 것이 좋습니다.
### EKS/IPv6 클러스터의 파게이트 파드
EKS는 파게이트에서 실행되는 파드용 IPv6를 지원합니다. Fargate에서 실행되는 파드는 VPC CIDR 범위 (IPv4&IPv6) 에서 분할된 IPv6 및 VPC 라우팅 가능한 프라이빗 IPv4 주소를 사용합니다. 간단히 말해서 EKS/Fargate 파드 클러스터 전체 밀도는 사용 가능한 IPv4 및 IPv6 주소로 제한됩니다. 향후 성장에 대비하여 듀얼 스택 서브넷/vPC CIDR의 크기를 조정하는 것이 좋습니다. 기본 서브넷에 사용 가능한 IPv4 주소가 없으면 IPv6 사용 가능 주소와 상관없이 새 Fargate Pod를 예약할 수 없습니다.
### AWS 로드밸런서 컨트롤러 (LBC) 배포
**업스트림 인트리 쿠버네티스 서비스 컨트롤러는 IPv6을 지원하지 않습니다**. AWS 로드밸런서 컨트롤러 애드온의 [최신 버전](https://kubernetes-sigs.github.io/aws-load-balancer-controller)을 사용하는 것이 좋습니다.LBC는 `"alb.ingress.kubernetes.io/ip-address type: dualstack"` 및 `"alb.ingress.kubernetes.io/target-type: ip""라는 주석이 달린 해당 쿠버네티스 서비스/인그레스 정의를 사용하는 경우에만 이중 스택 NLB 또는 이중 스택 ALB를 배포합니다.
AWS 네트워크 로드밸런서는 듀얼 스택 UDP 프로토콜 주소 유형을 지원하지 않습니다. 지연 시간이 짧은 실시간 스트리밍, 온라인 게임 및 IoT에 대한 강력한 요구 사항이 있는 경우 IPv4 클러스터를 실행하는 것이 좋습니다.UDP 서비스의 상태 점검 관리에 대한 자세한 내용은 ["UDP 트래픽을 쿠버네티스로 라우팅하는 방법"](https://aws.amazon.com/blogs/containers/how-to-route-udp-traffic-into-kubernetes/)을 참조하십시오.
### IMDSv2에 대한 의존성
IPv6 모드의 EKS는 아직 IMDSv2 엔드포인트를 지원하지 않습니다. IMDSv2가 EKS/IPv6으로 마이그레이션하는 데 방해가 되는 경우 지원 티켓을 여십시오 | eks | search exclude true IPv6 EKS iframe width 560 height 315 src https www youtube com embed zdXpTT0bZXo title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe IPv6 EKS EKS IPv4 EKS IPv6 IPv4 IPv4 Kubernetes IPv4 IPv6 https kubernetes io docs concepts services networking dual stack EKS IPv6 IPv6 CIDR CIDR 2 IPv6 EKS IPv4 IPv6 IPv4 IPv4 Amazon EKS IPv6 VPC IPv6 VPC IPv4 Prefix CIDR 16 28 GUA 56 IPv6 Prefix VPC 64 Prefix DNS IPv4 IPv6 VPC VPC VPC EK IPv6 IPv4 IPv6 VPC Dual Stack VPC mandatory foundation for EKS cluster in IPv6 mode eks ipv6 foundation png IPv6 VPC GUA IPv6 CIDR VPC RFC 4193 fd00 8 fc00 8 ULA https en wikipedia org wiki Unique local address IPv6 IPv6 CIDR VPC EIGW EKS IPv6 Pod IPv6 Dual Stack VPC EKS Cluster in IPv6 Mode Pods in private subnets egressing to Internet IPv6 endpoints eks egress ipv6 png IPv6 VPC https docs aws amazon com whitepapers latest ipv6 on aws IPv6 on AWS html IPv6 EKS IPv6 EKS IPv6 ULA IPv6 IPv6 ULA CIDR IPv4 EKS IPv6 Dual Stack VPC EKS Cluster in IPv6 Mode control plane ULA data plane IPv6 GUA for EC2 Pods eks cluster ipv6 foundation png EKS IPv6 Prefix VPC CNI ENI IP Prefix https aws github io aws eks best practices networking prefix mode index linux Prefix Nitro EC2 EKS IPv6 EC2 Nitro IPv6 Prefix 80 10 14 IPv6 IP IPv6 Prefix EKS IPv4 VPC CNI ipamd API EKS IPv4 VPC CNI WARM IP ENI MINIMUM IP https github com aws amazon vpc cni k8s warm ip target IPv6 ENI illustration of worker subnet including primary ENI with multiple IPv6 Addresses image 2 png EKS DNS IPv4 IPv6 IPv4 IPv6 EKS IPv4 IPv4 AWS EKS Pod IPv4 VPC CNI CNI CNI 169 254 172 0 22 IPv4 IPv4 169 254 172 0 22 1024 IPv4 IPv4 IPv6 Pod EKS IPv6 IPv4 egress only flow eks ipv4 snat cni png DNS IPv4 A IPv4 SNAT EC2 IPv4 VPC EK IPv6 IPv4 IPv4 IPv4 IPv6 Pod EKS IPv6 IPv4 Internet egress only flow eks ipv4 snat cni internet png DNS IPv4 A IPv4 SNAT EC2 IPv4 VPC IPv4 IPv4 EC2 IP IPv4 NAT EC2 IP IPv4 IP NAT IP IPv6 VPC CNI IPv4 IPv6 iptables IPv6 ULA https datatracker ietf org doc html rfc4193 IPv6 IP IPv6 ULA CIDR EKS EKS IPv6 IPv6 Pod to IPv6 k8s service ClusterIP ULA flow Pod to service ipv6 png AWS IPv4 IPv6 IPv6 IPv4 IPv4 IPv6 Amazon EKS EKS IPv6 IPv4 IPv4 EKS IPv6 ipv4 internet to eks ipv6 png AWS https kubernetes sigs github io aws load balancer controller EKS EKS IPv4 IPv6 ENI X eni kubelet kube proxy Kubelet kube proxy IPv4 IPv6 API IPv6 X ENI X ENI API API IPv6 illustration of cluster including X ENIs image 5 png IPv4 EKS API EKS API IPv4 API IPv6 API 1 IPv6 IPv4 NAT64 DNS64 IPv6 2 IPv4 DNS IPv6 Prefix ENI IP IPv6 POD m5 large Prefix IP CPU AMI ID EKS IPv6 EKS Prefix 1 16 2 3 ENIs 10 secondary IPs per ENI 1 16 2 460 real EKS https aws github io aws eks best practices networking custom networking Amazon EKS IPv6 IPv4 IPv6 EKS https github com aws containers roadmap issues EKS IPv6 EKS IPv6 Fargate VPC CIDR IPv4 IPv6 IPv6 VPC IPv4 EKS Fargate IPv4 IPv6 vPC CIDR IPv4 IPv6 Fargate Pod AWS LBC IPv6 AWS https kubernetes sigs github io aws load balancer controller LBC alb ingress kubernetes io ip address type dualstack alb ingress kubernetes io target type ip NLB ALB AWS UDP IoT IPv4 UDP UDP https aws amazon com blogs containers how to route udp traffic into kubernetes IMDSv2 IPv6 EKS IMDSv2 IMDSv2 EKS IPv6 |
eks IPVS IPVS IPVS IP EKS iptables 1 000 iptables iptables nftables nftable kube proxy https kubernetes io docs reference networking virtual ips proxy mode nftables IPVS GA IPVS IPVS IPVS kube proxy | # IPVS 모드에서 kube-proxy 실행
IPVS (IP 가상 서버) 모드의 EKS는 레거시 iptables 모드에서 실행되는 `kube-proxy`와 함께 1,000개 이상의 서비스가 포함된 대규모 클러스터를 실행할 때 흔히 발생하는 [네트워크 지연 문제](https://aws.github.io/aws-eks-best-practices/reliability/docs/controlplane/#running-large-clusters)를 해결합니다.이러한 성능 문제는 각 패킷에 대한 iptables 패킷 필터링 규칙을 순차적으로 처리한 결과입니다.이 지연 문제는 iptables의 후속 버전인 nftables에서 해결되었습니다.하지만 이 글을 쓰는 시점 현재, nftable을 활용하기 위한 [kube-proxy는 아직 개발 중] (https://kubernetes.io/docs/reference/networking/virtual-ips/#proxy-mode-nftables) 이다.이 문제를 해결하려면 IPVS 모드에서 `kube-proxy`가 실행되도록 클러스터를 구성할 수 있다.
## 개요
[쿠버네티스 버전 1.11](https://kubernetes.io/blog/2018/07/09/ipvs-based-in-cluster-load-balancing-deep-dive/) 부터 GA가 된 IPVS는 선형 검색이 아닌 해시 테이블을 사용하여 패킷을 처리하므로 수천 개의 노드와 서비스가 있는 클러스터에 효율성을 제공합니다.IPVS는 로드 밸런싱을 위해 설계되었으므로 쿠버네티스 네트워킹 성능 문제에 적합한 솔루션입니다.
IPVS는 트래픽을 백엔드 포드에 분산하기 위한 몇 가지 옵션을 제공합니다.각 옵션에 대한 자세한 내용은 [공식 쿠버네티스 문서](https://kubernetes.io/docs/reference/networking/virtual-ips/#proxy-mode-ipvs) 에서 확인할 수 있지만, 간단한 목록은 아래에 나와 있다.라운드 로빈과 최소 연결은 쿠버네티스의 IPVS 로드 밸런싱 옵션으로 가장 많이 사용되는 옵션 중 하나입니다.
```
- rr (라운드 로빈)
- wrr (웨이티드 라운드 로빈)
- lc (최소 연결)
- wlc (가중치가 가장 적은 연결)
- lblc (지역성 기반 최소 연결)
- lblcr (복제를 통한 지역성 기반 최소 연결)
- sh (소스 해싱)
- dh (데스티네이션 해싱)
- sed (최단 예상 지연)
- nq (줄 서지 마세요)
```
### 구현
EKS 클러스터에서 IPVS를 활성화하려면 몇 단계만 거치면 됩니다.가장 먼저 해야 할 일은 EKS 작업자 노드 이미지에 Linux 가상 서버 관리 `ipvsadm` 패키지가 설치되어 있는지 확인하는 것입니다.Amazon Linux 2023과 같은 Fedora 기반 이미지에 이 패키지를 설치하려면 작업자 노드 인스턴스에서 다음 명령을 실행할 수 있습니다.
```bash
sudo dnf install -y ipvsadm
```
Ubuntu와 같은 데비안 기반 이미지에서는 설치 명령이 다음과 같습니다.
```bash
sudo apt-get install ipvsadm
```
다음으로 위에 나열된 IPVS 구성 옵션에 대한 커널 모듈을 로드해야 합니다.재부팅해도 계속 작동하도록 이러한 모듈을 `/etc/modules-load.d/` 디렉토리 내의 파일에 기록하는 것이 좋습니다.
```bash
sudo sh -c 'cat << EOF > /etc/modules-load.d/ipvs.conf
ip_vs
ip_vs_rr
ip_vs_wrr
ip_vs_lc
ip_vs_wlc
ip_vs_lblc
ip_vs_lblcr
ip_vs_sh
ip_vs_dh
ip_vs_sed
ip_vs_nq
nf_conntrack
EOF'
```
다음 명령을 실행하여 이미 실행 중인 시스템에서 이러한 모듈을 로드할 수 있습니다.
```bash
sudo modprobe ip_vs
sudo modprobe ip_vs_rr
sudo modprobe ip_vs_wrr
sudo modprobe ip_vs_lc
sudo modprobe ip_vs_wlc
sudo modprobe ip_vs_lblc
sudo modprobe ip_vs_lblcr
sudo modprobe ip_vs_sh
sudo modprobe ip_vs_dh
sudo modprobe ip_vs_sed
sudo modprobe ip_vs_nq
sudo modprobe nf_conntrack
```
!!! note
이러한 작업자 노드 단계는 [사용자 데이터 스크립트](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/user-data.html) 를 통해 작업자 노드의 부트스트랩 프로세스의 일부로 실행하거나 사용자 지정 작업자 노드 AMI를 빌드하기 위해 실행되는 빌드 스크립트에서 실행하는 것이 좋습니다.
다음으로 IPVS 모드에서 실행되도록 클러스터의 `kube-proxy` DaemonSet를 구성합니다. 이는 `kube-proxy` `mode`를 `ipvs`로 설정하고 `ipvs scheduler`를 위에 나열된 로드 밸런싱 옵션 중 하나로 설정하면 됩니다(예: 라운드 로빈의 경우 `rr`).
!!! Warning
이는 운영 중단을 야기하는 변경이므로 근무 시간 외 시간에 수행해야 합니다.영향을 최소화하려면 초기 EKS 클러스터 생성 중에 이러한 변경을 수행하는 것이 좋습니다.
`kube-proxy` EKS 애드온을 업데이트하여 AWS CLI 명령을 실행하여 IPVS를 활성화할 수 있습니다.
```bash
aws eks update-addon --cluster-name $CLUSTER_NAME --addon-name kube-proxy \
--configuration-values '{"ipvs": {"scheduler": "rr"}, "mode": "ipvs"}' \
--resolve-conflicts OVERWRITE
```
또는 클러스터에서 `kube-proxy-config` 컨피그맵을 수정하여 이 작업을 수행할 수 있습니다.
```bash
kubectl -n kube-system edit cm kube-proxy-config
```
`ipvs`에서 `scheduler` 설정을 찾아 값을 위에 나열된 IPVS 로드 밸런싱 옵션 중 하나로 설정합니다(예: 라운드 로빈의 경우 `rr`)
기본값이 `iptables`인 `mode` 설정을 찾아 값을 `ipvs`로 변경합니다.
두 옵션 중 하나의 결과는 아래 구성과 유사해야 합니다.
```yaml hl_lines="9 13"
iptables:
masqueradeAll: false
masqueradeBit: 14
minSyncPeriod: 0s
syncPeriod: 30s
ipvs:
excludeCIDRs: null
minSyncPeriod: 0s
scheduler: "rr"
syncPeriod: 30s
kind: KubeProxyConfiguration
metricsBindAddress: 0.0.0.0:10249
mode: "ipvs"
nodePortAddresses: null
oomScoreAdj: -998
portRange: ""
udpIdleTimeout: 250ms
```
이러한 변경을 수행하기 전에 작업자 노드가 클러스터에 연결된 경우 kube-proxy 데몬셋을 다시 시작해야 합니다.
```bash
kubectl -n kube-system rollout restart ds kube-proxy
```
### 유효성 검사
작업자 노드 중 하나에서 다음 명령을 실행하여 클러스터 및 작업자 노드가 IPVS 모드에서 실행되고 있는지 확인할 수 있습니다.
```bash
sudo ipvsadm -L
```
최소한 쿠버네티스 API 서버 서비스에 대한 항목이 `10.100.0.1`이고 CoreDNS 서비스에 대한 항목이 `10.100.0.10`인 아래와 비슷한 결과를 볼 수 있을 것이다.
```hl_lines="4 7 10"
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP ip-10-100-0-1.us-east-1. rr
-> ip-192-168-113-81.us-eas Masq 1 0 0
-> ip-192-168-162-166.us-ea Masq 1 1 0
TCP ip-10-100-0-10.us-east-1 rr
-> ip-192-168-104-215.us-ea Masq 1 0 0
-> ip-192-168-123-227.us-ea Masq 1 0 0
UDP ip-10-100-0-10.us-east-1 rr
-> ip-192-168-104-215.us-ea Masq 1 0 0
-> ip-192-168-123-227.us-ea Masq 1 0 0
```
!!! note
이 예제 출력은 서비스 IP 주소 범위가 `10.100.0.0/16`인 EKS 클러스터에서 가져온 것입니다 | eks | IPVS kube proxy IPVS IP EKS iptables kube proxy 1 000 https aws github io aws eks best practices reliability docs controlplane running large clusters iptables iptables nftables nftable kube proxy https kubernetes io docs reference networking virtual ips proxy mode nftables IPVS kube proxy 1 11 https kubernetes io blog 2018 07 09 ipvs based in cluster load balancing deep dive GA IPVS IPVS IPVS https kubernetes io docs reference networking virtual ips proxy mode ipvs IPVS rr wrr lc wlc lblc lblcr sh dh sed nq EKS IPVS EKS Linux ipvsadm Amazon Linux 2023 Fedora bash sudo dnf install y ipvsadm Ubuntu bash sudo apt get install ipvsadm IPVS etc modules load d bash sudo sh c cat EOF etc modules load d ipvs conf ip vs ip vs rr ip vs wrr ip vs lc ip vs wlc ip vs lblc ip vs lblcr ip vs sh ip vs dh ip vs sed ip vs nq nf conntrack EOF bash sudo modprobe ip vs sudo modprobe ip vs rr sudo modprobe ip vs wrr sudo modprobe ip vs lc sudo modprobe ip vs wlc sudo modprobe ip vs lblc sudo modprobe ip vs lblcr sudo modprobe ip vs sh sudo modprobe ip vs dh sudo modprobe ip vs sed sudo modprobe ip vs nq sudo modprobe nf conntrack note https docs aws amazon com AWSEC2 latest UserGuide user data html AMI IPVS kube proxy DaemonSet kube proxy mode ipvs ipvs scheduler rr Warning EKS kube proxy EKS AWS CLI IPVS bash aws eks update addon cluster name CLUSTER NAME addon name kube proxy configuration values ipvs scheduler rr mode ipvs resolve conflicts OVERWRITE kube proxy config bash kubectl n kube system edit cm kube proxy config ipvs scheduler IPVS rr iptables mode ipvs yaml hl lines 9 13 iptables masqueradeAll false masqueradeBit 14 minSyncPeriod 0s syncPeriod 30s ipvs excludeCIDRs null minSyncPeriod 0s scheduler rr syncPeriod 30s kind KubeProxyConfiguration metricsBindAddress 0 0 0 0 10249 mode ipvs nodePortAddresses null oomScoreAdj 998 portRange udpIdleTimeout 250ms kube proxy bash kubectl n kube system rollout restart ds kube proxy IPVS bash sudo ipvsadm L API 10 100 0 1 CoreDNS 10 100 0 10 hl lines 4 7 10 IP Virtual Server version 1 2 1 size 4096 Prot LocalAddress Port Scheduler Flags RemoteAddress Port Forward Weight ActiveConn InActConn TCP ip 10 100 0 1 us east 1 rr ip 192 168 113 81 us eas Masq 1 0 0 ip 192 168 162 166 us ea Masq 1 1 0 TCP ip 10 100 0 10 us east 1 rr ip 192 168 104 215 us ea Masq 1 0 0 ip 192 168 123 227 us ea Masq 1 0 0 UDP ip 10 100 0 10 us east 1 rr ip 192 168 104 215 us ea Masq 1 0 0 ip 192 168 123 227 us ea Masq 1 0 0 note IP 10 100 0 0 16 EKS |
eks search iframe width 560 height 315 src https www youtube com embed RBE3yk2UlYA title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe exclude true Amazon VPC CNI | ---
search:
exclude: true
---
# Amazon VPC CNI
<iframe width="560" height="315" src="https://www.youtube.com/embed/RBE3yk2UlYA" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
Amazon EKS는 [Amazon VPC 컨테이너 네트워크 인터페이스(VPC CNI)](https://github.com/aws/amazon-vpc-cni-k8s) 플러그인을 통해 클러스터 네트워킹을 구현합니다. CNI 플러그인을 사용하면 쿠버네티스 파드가 VPC 네트워크에서와 동일한 IP 주소를 가질 수 있습니다. 구체적으로는 파드 내부의 모든 컨테이너는 네트워크 네임스페이스를 공유하며 로컬 포트를 사용하여 서로 통신할 수 있습니다.
Amazon VPC CNI에는 두 가지 구성 요소가 있습니다.
* CNI 바이너리는 파드 간 통신을 활성화하는 파드 네트워크를 구성합니다. CNI 바이너리는 노드의 루트 파일 시스템에서 실행되며, 새 파드가 노드에 추가되거나 기존 파드가 노드에서 제거될 때 kubelet에 의해 호출됩니다.
* 오래 실행되는(long-running) 노드 로컬(node-local) IP 주소 관리 (IPAM) 데몬인 ipamd는 다음을 담당합니다.
* 노드의 ENI 관리 및
* 사용 가능한 IP 주소 또는 Prefix의 웜 풀 유지
인스턴스가 생성되면 EC2는 기본 서브넷과 연결된 기본 ENI를 생성하여 연결합니다. 기본 서브넷은 퍼블릭 또는 프라이빗일 수 있습니다. 호스트 네트워크 모드에서 실행되는 파드는 노드 기본 ENI에 할당된 기본 IP 주소를 사용하며 호스트와 동일한 네트워크 네임스페이스를 공유합니다.
CNI 플러그인은 노드의 [Elastic Network Interface (ENI)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html)를 관리합니다. 노드가 프로비저닝되면 CNI 플러그인은 노드의 서브넷에서 기본 ENI에 슬롯 풀(IP 또는 Prefix)을 자동으로 할당합니다. 이 풀을 *웜 풀*이라고 하며, 크기는 노드의 인스턴스 유형에 따라 결정됩니다. CNI 설정에 따라 슬롯은 IP 주소 또는 Prefix일 수 있습니다. ENI의 슬롯이 할당되면 CNI는 웜 슬롯 풀이 있는 추가 ENI를 노드에 연결할 수 있습니다. 이러한 추가 ENI를 보조 ENI라고 합니다. 각 ENI는 인스턴스 유형에 따라 특정 갯수의 슬롯만 지원할 수 있습니다. CNI는 필요한 슬롯 수를 기반으로 인스턴스에 더 많은 ENI를 연결합니다. 여기서 슬롯 갯수는 보통 파드 갯수에 해당합니다. 이 프로세스는 노드가 추가 ENI를 더 이상 제공할 수 없을 때까지 계속됩니다. 또한 CNI는 파드 시작 속도를 높이기 위해 '웜' ENI와 슬롯을 사전 할당합니다. 참고로, 각 인스턴스 유형에는 연결할 수 있는 최대 ENI 수가 존재합니다. 이 조건은 컴퓨팅 리소스와 더불어 파드 밀도(노드당 파드 수)에 대한 또 하나의 제약 조건입니다.
![flow chart illustrating procedure when new ENI delegated prefix is needed](./image.png)
최대 네트워크 인터페이스 수, 사용할 수 있는 최대 슬롯 수는 EC2 인스턴스 유형에 따라 다릅니다. 각 파드는 슬롯의 IP 주소를 사용하기 때문에 특정 EC2 인스턴스에서 실행할 수 있는 파드의 수는 연결할 수 있는 ENI의 수와 각 ENI가 지원하는 슬롯의 수에 따라 달라집니다. 인스턴스의 CPU 및 메모리 리소스가 고갈되지 않도록 EKS 사용 가이드에 따라 최대 파드를 설정할 것을 권장합니다. `hostNetwork`를 사용하는 파드는 이 계산에서 제외됩니다. 주어진 인스턴스 유형에 대한 EKS의 권장 최대 파드 개수를 계산하기 위해 [max-pod-calculator.sh](https://github.com/awslabs/amazon-eks-ami/blob/master/files/max-pods-calculator.sh)라는 스크립트를 사용할 수 있습니다.
## 개요
보조 IP 모드는 VPC CNI의 기본 모드입니다. 이 가이드에서는 보조 IP 모드가 활성화된 경우의 VPC CNI 동작에 대한 일반적인 개요를 제공합니다. ipamd의 기능(IP 주소 할당)은 VPC CNI의 구성 설정, 예를 들어 [Prefix 모드](../prefix-mode/index_linux.md), [파드당 보안 그룹 수](../sgpp/index.md), [사용자 지정 네트워킹](../custom-networking/index.md)에 따라 달라질 수 있습니다.
Amazon VPC CNI는 워커 노드에 aws-node라는 이름의 쿠버네티스 데몬셋으로 배포됩니다. 워커 노드가 프로비저닝되면 primary ENI라고 하는 기본 ENI가 연결됩니다. CNI는 노드의 기본 ENI에 연결된 서브넷에서 웜 풀의 ENI와 보조 IP 주소를 할당합니다. 기본적으로 ipamd는 노드에 추가 ENI를 할당하려고 시도합니다. 단일 파드가 스케줄되고 기본 ENI의 보조 IP 주소가 할당되면 IPAMD는 추가 ENI를 할당합니다. 이 “웜” ENI는 더 빠른 파드 네트워킹을 가능하게 합니다. 보조 IP 주소 풀이 부족해지면 CNI는 다른 ENI를 추가하여 더 많은 주소를 할당합니다.
풀의 ENI 및 IP 주소 수는 [WARM_ENI_TARGET, WARM_IP_TARGET, MINIMUM_IP_TARGET](https://github.com/aws/amazon-vpc-cni-k8s/blob/master/docs/eni-and-ip-target.md)이라는 환경 변수를 통해 구성됩니다. `aws-node` 데몬셋은 충분한 수의 ENI가 연결되어 있는지 주기적으로 확인합니다. `WARM_ENI_TARGET` 혹은 `WARM_IP_TARGET` 및 `MINIMUM_IP_TARGET` 조건이 충족되면 충분한 수의 ENI가 연결됩니다. 연결된 ENI가 충분하지 않은 경우 CNI는 `MAX_ENI` 한도에 도달할 때까지 EC2에 API를 호출하여 추가로 ENI를 연결합니다.
* `WARM_ENI_TARGET` - 정수 값, 값이 >0이면 요구 사항이 활성화된 것입니다.
* 관리할 웜 ENI의 수입니다. ENI는 노드에 보조 ENI로 연결되면 “웜” 상태가 되지만, 어떤 파드에서도 사용되지 않습니다. 구체적으로 말하면 ENI의 IP 주소가 파드와 연결되지 않은 상태입니다.
* 예: ENI가 2개이고 각 ENI가 5개의 IP 주소를 지원하는 인스턴스를 예로 들어 보겠습니다. WARM_ENI_TARGET은 1로 설정되어 있습니다. 인스턴스에 정확히 5개의 IP 주소가 연결된 경우 CNI는 인스턴스에 2개의 ENI를 연결한 상태로 유지합니다. 첫 번째 ENI가 사용 중이며 이 ENI에서 사용 가능한 5개 IP 주소가 모두 사용됩니다. 두 번째 ENI는 풀에 5개 IP 주소가 모두 있는 “웜” 상태입니다. 인스턴스에서 다른 파드를 시작하는 경우 6번째 IP 주소가 필요합니다. CNI는 이 6번째 파드에 두 번째 ENI 및 풀의 5개의 IP에서 IP 주소를 할당합니다. 이제 두 번째 ENI가 사용되며 더 이상 “웜” 상태가 아니게 됩니다. CNI는 최소 1개의 웜 ENI를 유지하기 위해 세 번째 ENI를 할당합니다.
!!! Note
웜 ENI도 VPC의 CIDR에 있는 IP 주소를 사용합니다. IP 주소는 파드와 같은 워크로드에 연결되기 전까지는 “미사용” 또는 “웜” 상태가 됩니다.
* `WARM_IP_TARGET`, 정수, 값이 >0이면 요구 사항이 활성화된 것입니다.
* 유지할 웜 IP 주소 수입니다. 웜 IP는 활성 연결된 ENI에서 사용할 수 있지만 파드에 할당되지는 않습니다. 즉, 사용 가능한 웜 IP의 수는 추가 ENI 없이 파드에 할당할 수 있는 IP의 수입니다.
* 예: ENI가 1개이고 각 ENI가 20개의 IP 주소를 지원하는 인스턴스를 예로 들어 보겠습니다. WARM_IP_TARGET은 5로 설정되어 있습니다. WARM_ENI_TARGET은 0으로 설정되어 있습니다. 16번째 IP 주소가 필요할 때까지는 ENI 1개만 연결됩니다. 그 다음에는 CNI가 서브넷 CIDR의 가능한 주소 20개를 사용하여 두 번째 ENI를 연결합니다.
* `MINIMUM_IP_TARGET`, 정수, 값이 >0이면 요구 사항이 활성화된 것입니다.
* 언제든지 할당할 수 있는 최소 IP 주소 수입니다. 이는 일반적으로 인스턴스 시작 시 여러 ENI 할당을 미리 불러오는 데 사용됩니다.
* 예: 새로 시작한 인스턴스를 예로 들어보겠습니다. ENI는 1개이고 각 ENI는 10개의 IP 주소를 지원합니다. MINIMUM_IP_TARGET은 100으로 설정되어 있습니다. ENI는 총 100개의 주소에 대해 9개의 ENI를 즉시 추가로 연결합니다. 이는 `WARM_IP_TARGET` 또는 `WARM_ENI_TARGET`값과 상관없이 발생합니다.
이 프로젝트에는 [서브넷 계산기 Excel 문서](../subnet-calc/subnet-calc.xlsx)가 포함되어 있습니다. 이 문서는 `WARM_IP_TARGET` 및 `WARM_ENI_TARGET`과 같은 다양한 ENI 구성 옵션에 따라 지정된 워크로드의 IP 주소 사용을 시뮬레이션합니다.
![illustration of components involved in assigning an IP address to a pod](./image-2.png)
Kubelet이 파드 추가 요청을 받으면, CNI 바이너리는 ipamd에 사용 가능한 IP 주소를 쿼리하고, ipamd는 이를 파드에 제공합니다. CNI 바이너리는 호스트와 파드 네트워크를 연결합니다.
노드에 배포된 파드는 기본적으로 기본 ENI와 동일한 보안 그룹에 할당되며, 파드를 다른 보안 그룹으로 구성할 수도 있습니다.
![second illustration of components involved in assigning an IP address to a pod](./image-3.png)
IP 주소 풀이 고갈되면 플러그인은 자동으로 다른 Elastic Network Interface를 인스턴스에 연결하고 해당 인터페이스에 다른 보조 IP 주소 세트를 할당합니다. 이 프로세스는 노드가 더 이상 추가 Elastic Network Interface를 지원할 수 없을 때까지 계속됩니다.
![third illustration of components involved in assigning an IP address to a pod](./image-4.png)
파드가 삭제되면 VPC CNI는 파드의 IP 주소를 30초 쿨다운 캐시에 저장합니다. 쿨 다운 캐시의 IP는 신규 파드에 할당되지 않습니다. 쿨링오프 주기가 끝나면 VPC CNI는 파드 IP를 웜 풀로 다시 옮깁니다. 쿨링 오프 주기는 파드 IP 주소가 너무 이르게 재활용되는 것을 방지하고 모든 클러스터 노드의 kube-proxy가 iptables 규칙 업데이트를 완료할 수 있도록 합니다. IP 또는 ENI의 수가 웜 풀 설정 수를 초과하면 ipamd 플러그인은 VPC에 IP와 ENI를 반환합니다.
보조 IP 모드에서 앞서 설명한 바와 같이, 각 파드는 인스턴스에 연결된 ENI 중 하나로부터 하나의 보조 프라이빗 IP 주소를 수신합니다. 각 파드는 IP 주소를 사용하기 때문에 특정 EC2 인스턴스에서 실행할 수 있는 파드의 수는 연결할 수 있는 ENI의 수와 지원하는 IP 주소의 수에 따라 달라집니다. VPC CNI는 [limit](https://github.com/aws/amazon-vpc-resource-controller-k8s/blob/master/pkg/aws/vpc/limits.go)파일을 확인하여 각 인스턴스 유형에 허용되는 ENI와 IP 주소 수를 알아냅니다.
다음 공식을 사용하여 노드에 배포할 수 있는 최대 파드 수를 확인할 수 있습니다.
`(인스턴스 유형의 네트워크 인터페이스 수 × (네트워크 인터페이스당 IP 주소 수 - 1)) + 2`
+2는 kube-proxy 및 VPC CNI와 같은 호스트 네트워킹에서 필요한 파드를 나타냅니다. Amazon EKS에서는 각 노드에서 kube-proxy 및 VPC CNI가 작동해야 하며, 이러한 요구 사항은 max-pods 값에 반영됩니다. 추가 호스트 네트워킹 파드를 실행하려면 max-pods 값 업데이트를 고려해 보십시오.
+2는 kube-proxy 및 VPC CNI와 같은 호스트 네트워킹을 사용하는 쿠버네티스 파드를 나타냅니다. Amazon EKS는 모든 노드에서 kube-proxy와 VPC CNI를 실행해야 하며, 이는 max-pods 기준으로 계산됩니다. 더 많은 호스트 네트워킹 파드를 실행할 계획이라면 max-pods 값을 업데이트하는 것을 고려해 보십시오. 시작 템플릿에서 `--kubelet-extra-args "—max-pods=110"`을 사용자 데이터로 지정할 수 있습니다.
예를 들어, c5.large 노드 3개(ENI 3개, ENI당 최대 10개 IP)가 있는 클러스터에서 클러스터가 시작되고, CoreDNS 파드 2개가 있는 경우 CNI는 49개의 IP 주소를 사용하여 웜 풀에 보관합니다. 웜 풀을 사용하면 애플리케이션 배포 시 파드를 더 빠르게 시작할 수 있습니다.
노드 1 (CoreDNS 파드 포함): ENI 2개, IP 20개 할당
노드 2 (CoreDNS 파드 포함): ENI 2개, IP 20개 할당
노드 3 (파드 없음): ENI 1개, IP 10개 할당
주로 데몬셋으로 실행되는 인프라 파드는 각각 최대 파드 수에 영향을 미친다는 점을 고려합니다. 여기에는 다음이 포함될 수 있습니다.
* CoreDNS
* Amazon Elastic LoadBalancer
* metrics-server 운영용 Pods
이러한 파드들의 용량을 조합하여 인프라를 계획하는 것을 권장합니다. 각 인스턴스 유형에서 지원하는 최대 파드 수 목록은 GitHub의 [eni-max-Pods.txt](https://github.com/awslabs/amazon-eks-ami/blob/master/files/eni-max-pods.txt)를 참조합니다.
![illustration of multiple ENIs attached to a node](./image-5.png)
## 권장 사항
### VPC CNI 관리형 애드온 배포
클러스터를 프로비저닝하면 Amazon EKS가 자동으로 VPC CNI를 설치합니다. 그럼에도 불구하고 Amazon EKS는 클러스터가 컴퓨팅, 스토리지, 네트워킹과 같은 기본 AWS 리소스와 상호 작용할 수 있도록 하는 관리형 애드온을 지원합니다. VPC CNI를 비롯한 관리형 애드온을 사용하여 클러스터를 배포하는 것이 좋습니다.
Amazon EKS 관리형 애드온은 Amazon EKS 클러스터를 위한 VPC CNI 설치 및 관리를 제공합니다. Amazon EKS 애드온에는 최신 보안 패치, 버그 수정이 포함되어 있으며, Amazon EKS와 호환되는지 AWS의 검증을 거쳤습니다. VPC CNI 애드온을 사용하면 Amazon EKS 클러스터의 보안 및 안정성을 지속적으로 보장하고 추가 기능을 설치, 구성 및 업데이트하는 데 필요한 노력을 줄일 수 있습니다. 또한 관리형 애드온은 Amazon EKS API, AWS 관리 콘솔, AWS CLI 및 eksctl을 통해 추가, 업데이트 또는 삭제할 수 있습니다.
`kubectl get` 명령어와 함께 `--show-managed-fields` 플래그를 사용하여 VPC CNI의 관리형 필드를 찾을 수 있습니다.
```
kubectl get daemonset aws-node --show-managed-fields -n kube-system -o yaml
```
관리형 애드온은 15분마다 구성을 자동으로 덮어쓰는 것으로 구성 변동을 방지합니다. 즉, 애드온 생성 후 Kubernetes API를 통해 변경한 관리형 애드온은 자동화된 드리프트 방지 프로세스에 의해 덮어쓰여지고 애드온 업데이트 프로세스 중에도 기본값으로 설정됩니다.
EKS에서 관리하는 필드는 managedFields 하위에 나열되며 이 필드에 대한 관리자는 EKS입니다. EKS에서 관리하는 필드에는 서비스 어카운트, 이미지, 이미지 URL, liveness probe, readiness probe, 레이블, 볼륨 및 볼륨 마운트가 포함됩니다.
!!! Info
WARM_ENI_TARGET, WARM_IP_TARGET, MINIMUM_IP_TARGET과 같이 자주 사용되는 필드는 관리되지 않으며 조정되지 않습니다. 이러한 필드의 변경 사항은 애드온 업데이트 시에도 유지됩니다.
프로덕션 클러스터를 업데이트하기 전, 특정 구성의 비프로덕션 클러스터에서 애드온 동작을 테스트하는 것이 좋습니다. 또한 [애드온](https://docs.aws.amazon.com/eks/latest/userguide/eks-add-ons.html) 구성에 대해서는 EKS 사용자 가이드의 단계를 따라합니다.
#### 관리형 애드온으로 마이그레이션
자체 관리형 VPC CNI의 버전 호환성을 관리하고 보안 패치를 업데이트합니다. 자체 관리형 애드온을 업데이트하려면 [EKS 사용자 가이드](https://docs.aws.amazon.com/eks/latest/userguide/managing-vpc-cni.html#updating-vpc-cni-add-on)에 설명된 쿠버네티스 API와 안내 사항들을 활용해야 합니다. 기존 EKS 클러스터의 경우, 관리형 애드온으로 마이그레이션하는 것이 좋으며, 마이그레이션 전에 현재 CNI 설정을 백업해 둘 것을 권장합니다. 관리형 애드온을 구성하기 위해 Amazon EKS API, AWS 관리 콘솔 또는 AWS 명령줄 인터페이스를 활용할 수 있습니다.
```
kubectl apply view-last-applied daemonset aws-node -n kube-system > aws-k8s-cni-old.yaml
```
필드 기본 설정에 관리형으로 표시된 경우 Amazon EKS는 CNI 구성 설정을 대체합니다. 관리형 필드를 수정하지 않도록 주의합니다. 애드온은 *웜* 환경 변수 및 CNI 모드와 같은 구성 필드를 조정하지 않습니다. 파드와 애플리케이션은 관리형 CNI로 마이그레이션하는 동안 계속 실행됩니다.
#### 업데이트 전 CNI 설정 백업
VPC CNI는 고객의 데이터 플레인(노드)에서 실행되므로 Amazon EKS는 신규 버전이 출시되거나 [클러스터를 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/update-cluster.html)한 후에 신규 쿠버네티스 마이너 버전으로 (관리형 및 자체 관리형)애드온을 자동으로 업데이트하지 않습니다. 기존 클러스터의 애드온을 업데이트하려면 update-addon API를 사용하거나 EKS 콘솔에서 애드온용 지금 업데이트(Update Now) 링크를 클릭하여 업데이트를 트리거해야 합니다. 자체 관리형 애드온을 배포한 경우 [자체 관리형 VPC CNI 애드온 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/managing-vpc-cni.html#updating-vpc-cni-add-on)에 안내된 단계를 따르도록 합니다.
마이너 버전은 한 번에 하나씩 업데이트하는 것이 좋습니다. 예를 들어 현재 마이너 버전이 `1.9`이고 `1.11`로 업데이트할 경우, 먼저 `1.10`의 최신 패치 버전으로 업데이트한 다음 `1.11`의 최신 패치 버전으로 업데이트해야 합니다.
Amazon VPC CNI를 업데이트하기 전에 AWS 노드 데몬셋 검사를 수행합니다. 기존 설정을 백업합니다. 관리형 애드온을 사용하는 경우 Amazon EKS에서 재정의할 수 있는 설정을 업데이트하지 않았는지 확인합니다. 고객의 자동화 워크플로의 업데이트 훅을 적용하거나 혹은 애드온 업데이트 후 수동 적용 단계를 추가할 것을 권장합니다.
```
kubectl apply view-last-applied daemonset aws-node -n kube-system > aws-k8s-cni-old.yaml
```
자체 관리형 애드온의 경우 백업을 GitHub의 `releases` 내용과 비교하여 사용 가능한 버전을 확인하고 업데이트하려는 버전의 변경 사항을 숙지합니다. 자체 관리형 애드온을 관리하기 위해 헬름(Helm)을 사용하는 것을 권장하며, values 파일을 활용하여 설정을 적용하는 것을 권장합니다. 데몬셋 삭제와 관련된 모든 업데이트 작업은 애플리케이션 다운타임으로 이어지므로 피해야 합니다.
### 보안 컨텍스트 이해
VPC CNI를 효율적으로 관리하기 위해 구성된 보안 컨텍스트를 이해하는 것이 좋습니다. Amazon VPC CNI에는 CNI 바이너리와 ipamd(aws-node) 데몬셋이라는 두 가지 구성 요소가 있습니다. CNI는 노드에서 바이너리로 실행되며 노드 루트 파일 시스템에 액세스할 수 있으며, 노드 수준에서 iptables를 처리하므로 privileged 접근에 대한 권한도 갖습니다. CNI 바이너리는 파드가 추가되거나 제거될 때 kubelet에 의해 호출됩니다.
aws-node 데몬셋은 노드 수준에서 IP 주소 관리를 담당하는 장기 실행 프로세스입니다. aws-node는 `hostNetwork` 모드에서 실행되며 루프백 디바이스 및 동일한 노드에 있는 다른 파드의 네트워크 활동에 대한 액세스를 허용합니다. aws-node의 초기화 컨테이너는 privileged 모드에서 실행되며 CRI 소켓을 마운트하여 데몬셋이 노드에서 실행되는 파드의 IP 사용을 모니터링할 수 있도록 합니다. Amazon EKS는 aws-node의 초기화 컨테이너의 privileged 요구 조건을 제거하기 위해 노력하고 있습니다. 또한 aws-node는 NAT 엔트리를 업데이트하고 iptables 모듈을 로드해야 하므로 NET_ADMIN 권한으로 실행해야 합니다.
Amazon EKS는 파드 및 네트워킹 설정의 IP 관리를 위해 aws-node 매니페스트에서 정의한 대로 보안 정책을 배포할 것을 권장합니다. 최신 버전의 VPC CNI로 업데이트하는 것을 고려합니다. 또한 특정 보안 요구 사항이 있는 경우 [GitHub 이슈](https://github.com/aws/amazon-vpc-cni-k8s/issues)를 확인합니다.
### CNI에 별도의 IAM 역할 사용
AWS VPC CNI에는 AWS 자격 증명 및 액세스 관리(IAM) 권한이 필요합니다. IAM 역할을 사용하려면 먼저 CNI 정책을 설정해야 합니다. IPv4 클러스터용 AWS 관리형 정책인 [`AmazonEKS_CNI_Policy`](https://console.aws.amazon.com/iam/home#/policies/arn:aws:iam::aws:policy/AmazonEKS_CNI_Policy%24jsonEditor)를 사용할 수 있습니다. Amazon EKS의 CNI 관리형 정책에는 IPv4 클러스터에 대한 권한만 존재합니다. [이 링크](https://docs.aws.amazon.com/eks/latest/userguide/cni-iam-role.html#cni-iam-role-create-ipv6-policy)에 표시된 권한을 사용하여 IPv6 클러스터에 대해 별도의 IAM 정책을 생성해야 합니다.
기본적으로 VPC CNI는 (관리형 노드 그룹과 자체 관리형 노드 그룹 모두)[Amazon EKS 노드 IAM 역할](https://docs.aws.amazon.com/eks/latest/userguide/create-node-role.html)을 상속합니다.
Amazon VPC CNI에 대한 관련 정책을 사용하여 별도의 IAM 역할을 구성하는 것을 **강력하게** 권장합니다. 그렇지 않은 경우 Amazon VPC CNI의 파드는 노드 IAM 역할에 할당된 권한을 얻고 노드에 할당된 인스턴스 프로필에 접근할 수 있습니다.
VPC CNI 플러그인은 aws-node라는 서비스 어카운트를 생성하고 구성합니다. 기본적으로 서비스 어카운트는 Amazon EKS CNI 정책이 연결된 Amazon EKS 노드의 IAM 역할에 바인딩됩니다. 별도의 IAM 역할을 사용하려면 Amazon EKS CNI 정책이 연결된 [신규 서비스 어카운트를 생성](https://docs.aws.amazon.com/eks/latest/userguide/cni-iam-role.html#cni-iam-role-create-role)하는 것이 좋습니다. 신규 서비스 어카운트를 사용하려면 [CNI 파드 재배포](https://docs.aws.amazon.com/eks/latest/userguide/cni-iam-role.html#cni-iam-role-redeploy-pods)를 진행해야 합니다. 신규 클러스터를 생성할 때 VPC CNI 관리형 애드온에 `--service-account-role-arn`을 지정하는 것을 고려합니다. 이 때 Amazon EKS 노드의 IAM 역할에서 IPv4와 IPv6 모두에 대한 Amazon EKS CNI 정책을 반드시 제거해야 합니다.
보안 침해의 피해 범위를 최소화하기 위해 [인스턴스 메타데이터 접근을 차단](https://aws.github.io/aws-eks-best-practices/security/docs/iam/#restrict-access-to-the-instance-profile-assigned-to-the-worker-node)하는 것을 권장합니다.
### Liveness/Readiness Probe 실패 처리
프로브 실패로 인해 애플리케이션의 파드가 컨테이너 생성 상태에서 멈추는 것을 방지하기 위해 EKS 1.20 버전 이상 클러스터의 liveness 및 readiness probe의 타임아웃 값 (기본값 `TimeoutSeconds: 10`)을 높일 것을 권장합니다. 해당 이슈는 데이터 집약적인 배치 처리 클러스터에서 발견되었습니다. CPU를 많이 사용하면 aws-node 프로브 상태 장애가 발생하여 Pod CPU 리소스 요청이 충족되지 않을 수 있습니다. 프로브 타임아웃을 수정하는 것 외에도 aws-node에 대한 CPU 리소스 요청(기본값 `CPU: 25m`)이 올바르게 구성되었는지 확인합니다. 노드에 문제가 있는 경우가 아니면 설정을 업데이트하지 않는 것을 권장합니다.
Amazon EKS 지원을 받는 동안 노드에서 sudo `bash /opt/cni/bin/aws-cni-support.sh`를 실행할 것을 권장합니다. 이 스크립트는 노드의 kubelet 로그와 메모리 사용률을 평가하는 데 도움이 됩니다. 스크립트를 실행하기 위해 Amazon EKS 워커 노드에 SSM 에이전트를 설치하는 것을 고려합니다.
### 비 EKS 최적화 AMI 인스턴스에서 IPtables 전달 정책 구성
사용자 지정 AMI를 사용하는 경우 [kubelet.service](https://github.com/awslabs/amazon-eks-ami/blob/master/files/kubelet.service#L8)에서 iptables 전달 정책을 ACCEPT로 설정해야 합니다. 많은 시스템에서 iptables 전달 정책이 DROP으로 설정됩니다. [HashiCorp Packer](https://packer.io/intro/why.html)를 사용하여 사용자 지정 AMI를, [AWS GitHub의 Amazon EKS AMI 저장소](https://github.com/awslabs/amazon-eks-ami)에서 리소스 및 구성 스크립트를 사용하여 빌드 사양을 생성할 수 있습니다. [kubelet.service](https://github.com/awslabs/amazon-eks-ami/blob/master/files/kubelet.service#L8)를 업데이트하고 [이 링크](https://aws.amazon.com/premiumsupport/knowledge-center/eks-custom-linux-ami/)에 설명된 안내에 따라 사용자 지정 AMI를 생성할 수 있습니다.
### 정기적인 CNI 버전 업그레이드
VPC CNI는 이전 버전과 호환됩니다. 최신 버전은 모든 Amazon EKS에서 지원하는 쿠버네티스 버전과 호환됩니다. 또한 VPC CNI는 EKS 애드온으로 제공됩니다(위의 “VPC CNI 관리형 애드온 배포” 참조). EKS 애드온은 애드온 업그레이드를 관리하지만 CNI와 같은 애드온은 데이터 플레인에서 실행되므로 자동으로 업그레이드되지 않습니다. 관리형 및 자체 관리형 워커 노드 업그레이드 후에는 VPC CNI 애드온을 업그레이드해야 합니다. | eks | search exclude true Amazon VPC CNI iframe width 560 height 315 src https www youtube com embed RBE3yk2UlYA title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe Amazon EKS Amazon VPC VPC CNI https github com aws amazon vpc cni k8s CNI VPC IP Amazon VPC CNI CNI CNI kubelet long running node local IP IPAM ipamd ENI IP Prefix EC2 ENI ENI IP CNI Elastic Network Interface ENI https docs aws amazon com AWSEC2 latest UserGuide using eni html CNI ENI IP Prefix CNI IP Prefix ENI CNI ENI ENI ENI ENI CNI ENI ENI CNI ENI ENI flow chart illustrating procedure when new ENI delegated prefix is needed image png EC2 IP EC2 ENI ENI CPU EKS hostNetwork EKS max pod calculator sh https github com awslabs amazon eks ami blob master files max pods calculator sh IP VPC CNI IP VPC CNI ipamd IP VPC CNI Prefix prefix mode index linux md sgpp index md custom networking index md Amazon VPC CNI aws node primary ENI ENI CNI ENI ENI IP ipamd ENI ENI IP IPAMD ENI ENI IP CNI ENI ENI IP WARM ENI TARGET WARM IP TARGET MINIMUM IP TARGET https github com aws amazon vpc cni k8s blob master docs eni and ip target md aws node ENI WARM ENI TARGET WARM IP TARGET MINIMUM IP TARGET ENI ENI CNI MAX ENI EC2 API ENI WARM ENI TARGET 0 ENI ENI ENI ENI IP ENI 2 ENI 5 IP WARM ENI TARGET 1 5 IP CNI 2 ENI ENI ENI 5 IP ENI 5 IP 6 IP CNI 6 ENI 5 IP IP ENI CNI 1 ENI ENI Note ENI VPC CIDR IP IP WARM IP TARGET 0 IP IP ENI IP ENI IP ENI 1 ENI 20 IP WARM IP TARGET 5 WARM ENI TARGET 0 16 IP ENI 1 CNI CIDR 20 ENI MINIMUM IP TARGET 0 IP ENI ENI 1 ENI 10 IP MINIMUM IP TARGET 100 ENI 100 9 ENI WARM IP TARGET WARM ENI TARGET Excel subnet calc subnet calc xlsx WARM IP TARGET WARM ENI TARGET ENI IP illustration of components involved in assigning an IP address to a pod image 2 png Kubelet CNI ipamd IP ipamd CNI ENI second illustration of components involved in assigning an IP address to a pod image 3 png IP Elastic Network Interface IP Elastic Network Interface third illustration of components involved in assigning an IP address to a pod image 4 png VPC CNI IP 30 IP VPC CNI IP IP kube proxy iptables IP ENI ipamd VPC IP ENI IP ENI IP IP EC2 ENI IP VPC CNI limit https github com aws amazon vpc resource controller k8s blob master pkg aws vpc limits go ENI IP IP 1 2 2 kube proxy VPC CNI Amazon EKS kube proxy VPC CNI max pods max pods 2 kube proxy VPC CNI Amazon EKS kube proxy VPC CNI max pods max pods kubelet extra args max pods 110 c5 large 3 ENI 3 ENI 10 IP CoreDNS 2 CNI 49 IP 1 CoreDNS ENI 2 IP 20 2 CoreDNS ENI 2 IP 20 3 ENI 1 IP 10 CoreDNS Amazon Elastic LoadBalancer metrics server Pods GitHub eni max Pods txt https github com awslabs amazon eks ami blob master files eni max pods txt illustration of multiple ENIs attached to a node image 5 png VPC CNI Amazon EKS VPC CNI Amazon EKS AWS VPC CNI Amazon EKS Amazon EKS VPC CNI Amazon EKS Amazon EKS AWS VPC CNI Amazon EKS Amazon EKS API AWS AWS CLI eksctl kubectl get show managed fields VPC CNI kubectl get daemonset aws node show managed fields n kube system o yaml 15 Kubernetes API EKS managedFields EKS EKS URL liveness probe readiness probe Info WARM ENI TARGET WARM IP TARGET MINIMUM IP TARGET https docs aws amazon com eks latest userguide eks add ons html EKS VPC CNI EKS https docs aws amazon com eks latest userguide managing vpc cni html updating vpc cni add on API EKS CNI Amazon EKS API AWS AWS kubectl apply view last applied daemonset aws node n kube system aws k8s cni old yaml Amazon EKS CNI CNI CNI CNI VPC CNI Amazon EKS https docs aws amazon com eks latest userguide update cluster html update addon API EKS Update Now VPC CNI https docs aws amazon com eks latest userguide managing vpc cni html updating vpc cni add on 1 9 1 11 1 10 1 11 Amazon VPC CNI AWS Amazon EKS kubectl apply view last applied daemonset aws node n kube system aws k8s cni old yaml GitHub releases Helm values VPC CNI Amazon VPC CNI CNI ipamd aws node CNI iptables privileged CNI kubelet aws node IP aws node hostNetwork aws node privileged CRI IP Amazon EKS aws node privileged aws node NAT iptables NET ADMIN Amazon EKS IP aws node VPC CNI GitHub https github com aws amazon vpc cni k8s issues CNI IAM AWS VPC CNI AWS IAM IAM CNI IPv4 AWS AmazonEKS CNI Policy https console aws amazon com iam home policies arn aws iam aws policy AmazonEKS CNI Policy 24jsonEditor Amazon EKS CNI IPv4 https docs aws amazon com eks latest userguide cni iam role html cni iam role create ipv6 policy IPv6 IAM VPC CNI Amazon EKS IAM https docs aws amazon com eks latest userguide create node role html Amazon VPC CNI IAM Amazon VPC CNI IAM VPC CNI aws node Amazon EKS CNI Amazon EKS IAM IAM Amazon EKS CNI https docs aws amazon com eks latest userguide cni iam role html cni iam role create role CNI https docs aws amazon com eks latest userguide cni iam role html cni iam role redeploy pods VPC CNI service account role arn Amazon EKS IAM IPv4 IPv6 Amazon EKS CNI https aws github io aws eks best practices security docs iam restrict access to the instance profile assigned to the worker node Liveness Readiness Probe EKS 1 20 liveness readiness probe TimeoutSeconds 10 CPU aws node Pod CPU aws node CPU CPU 25m Amazon EKS sudo bash opt cni bin aws cni support sh kubelet Amazon EKS SSM EKS AMI IPtables AMI kubelet service https github com awslabs amazon eks ami blob master files kubelet service L8 iptables ACCEPT iptables DROP HashiCorp Packer https packer io intro why html AMI AWS GitHub Amazon EKS AMI https github com awslabs amazon eks ami kubelet service https github com awslabs amazon eks ami blob master files kubelet service L8 https aws amazon com premiumsupport knowledge center eks custom linux ami AMI CNI VPC CNI Amazon EKS VPC CNI EKS VPC CNI EKS CNI VPC CNI |
eks search EKS AWS VPC exclude true VPC | ---
search:
exclude: true
---
# VPC 및 서브넷 고려 사항
EKS 클러스터를 운영하려면 쿠버네티스 네트워킹 외에도 AWS VPC 네트워킹에 대한 지식이 필요합니다.
VPC를 설계하거나 기존 VPC에 클러스터를 배포하기 전에 EKS 컨트롤 플레인 통신 메커니즘을 이해할 것을 권장합니다.
EKS에서 사용할 VPC와 서브넷을 설계할 때는 [클러스터 VPC 고려 사항](https://docs.aws.amazon.com/eks/latest/userguide/network_reqs.html) 및 [Amazon EKS 보안 그룹 고려 사항](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)을 참조합니다.
## 개요
### EKS 클러스터 아키텍처
EKS 클러스터는 두 개의 VPC로 구성됩니다.
* 쿠버네티스 컨트롤 플레인을 호스팅하는 AWS 관리형 VPC. 이 VPC는 고객 계정에 표시되지 않습니다.
* 쿠버네티스 노드를 호스팅하는 고객 관리형 VPC. 여기에서 컨테이너는 물론 클러스터에서 사용하는 로드 밸런서와 같은 기타 고객 관리형 AWS 인프라가 실행됩니다. 이 VPC는 고객 계정에 표시됩니다. 클러스터를 생성하기 전, 고객 관리형 VPC를 생성해야 합니다. 사용자가 VPC를 제공하지 않을 경우 eksctl이 VPC를 생성합니다.
고객 VPC의 노드는 AWS VPC의 관리형 API 서버 엔드포인트에 연결할 수 있어야 합니다. 이를 통해 노드가 쿠버네티스 컨트롤 플레인에 등록되고 애플리케이션 파드를 실행하라는 요청을 수신할 수 있습니다.
노드는 (a) EKS 퍼블릭 엔드포인트 또는 (b) EKS에서 관리하는 교차 계정 [Elastic Network Interface](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html)(X-ENI)를 통해 EKS 컨트롤 플레인에 연결됩니다. 클러스터를 생성할 때는 최소 두 개의 VPC 서브넷을 지정해야 합니다. EKS는 클러스터 생성 시 지정된 각 서브넷(클러스터 서브넷이라고도 함)에 X-ENI를 배치합니다. 쿠버네티스 API 서버는 이러한 교차 계정 ENI를 사용하여 고객 관리형 클러스터 VPC 서브넷에 배포된 노드와 통신합니다.
![general illustration of cluster networking, including load balancer, nodes, and pods.](./image.png)
노드를 시작하면 EKS 부트스트랩 스크립트가 실행되고 쿠버네티스 노드 구성 파일이 설치됩니다. 각 인스턴스의 부팅 프로세스의 일부로써 컨테이너 런타임 에이전트, kubelet 및 쿠버네티스 노드 에이전트가 시작됩니다.
노드를 등록하기 위해 kubelet은 쿠버네티스 클러스터 엔드포인트에 접속합니다. VPC 외부의 퍼블릭 엔드포인트 또는 VPC 내의 프라이빗 엔드포인트와의 연결을 설정합니다. Kubelet은 API 명령을 수신하고 엔드포인트에 상태 업데이트 및 하트비트를 정기적으로 제공합니다.
### EKS 컨트롤 플레인 통신
EKS에는 [클러스터 엔드포인트](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html)에 대한 접근을 제어하는 두 가지 방법이 있습니다. 엔드포인트 접근 제어를 통해 엔드포인트가 퍼블릭 인터넷을 통해 접근할 수 있는지 아니면 VPC를 통해서만 접근할 수 있는지 여부를 선택할 수 있습니다. 퍼블릭 엔드포인트(기본값), 프라이빗 엔드포인트 또는 둘 다를 한 번에 활성화 할 수 있습니다.
클러스터 API 엔드포인트의 구성은 노드가 컨트롤 플레인과 통신하기 위한 경로를 결정합니다. 참고로 이러한 엔드포인트 설정은 EKS 콘솔 또는 API를 통해 언제든지 변경할 수 있습니다.
#### 퍼블릭 엔드포인트
해당 구성은 신규 Amazon EKS 클러스터의 기본 동작입니다. 클러스터의 퍼블릭 엔드포인트만 활성화된 경우 클러스터의 VPC 내에서 시작된 쿠버네티스 API 요청(예: 워커노드에서 컨트롤 플레인으로의 통신)은 VPC 외부로 가지만 Amazon 네트워크 외부로는 가지 않습니다. 노드가 컨트롤 플레인에 연결되려면 퍼블릭 IP 주소 및 인터넷 게이트웨이에 대한 경로 또는 NAT 게이트웨이의 퍼블릭 IP 주소를 사용할 수 있는 NAT 게이트웨이에 대한 경로가 있어야 합니다.
#### 퍼블릭 및 프라이빗 엔드포인트
퍼블릭 엔드포인트와 프라이빗 엔드포인트가 모두 활성화되면 VPC 내의 쿠버네티스 API 요청이 VPC 내의 X-ENI를 통해 컨트롤 플레인과 통신합니다. 클러스터 API 서버는 인터넷에서 액세스할 수 있습니다.
#### 프라이빗 엔드포인트
프라이빗 엔드포인트만 활성화된 경우 인터넷에서 API 서버에 공개적으로 액세스할 수 없습니다. 클러스터 API 서버로 향하는 모든 트래픽은 클러스터의 VPC 또는 연결된 네트워크 안에서 들어와야 합니다. 노드는 VPC 내의 X-ENI를 통해 API 서버와 통신합니다. 단, 클러스터 관리 도구는 프라이빗 엔드포인트에 액세스할 수 있어야 합니다. [Amazon VPC 외부에서 프라이빗 Amazon EKS 클러스터 엔드포인트에 연결하는 방법](https://aws.amazon.com/premiumsupport/knowledge-center/eks-private-cluster-endpoint-vpc/)에 대해 자세히 알아봅니다.
참고로 클러스터의 API 서버 엔드포인트는 퍼블릭 DNS 서버에서 VPC의 프라이빗 IP 주소로 리졸브됩니다. 과거에는 VPC 내에서만 엔드포인트를 리졸브할 수 있었습니다.
### VPC 구성
Amazon VPC는 IPv4 및 IPv6 주소를 지원합니다. Amazon EKS는 기본적으로 IPv4를 지원합니다. VPC에는 IPv4 CIDR 블록이 연결되어 있어야 합니다. 선택적으로 여러 IPv4 [Classless Inter-Domain Routing](http://en.wikipedia.org/wiki/CIDR_notation)(CIDR) 블록과 여러 IPv6 CIDR 블록을 VPC에 연결할 수 있습니다. VPC를 생성할 경우 [RFC 1918](http://www.faqs.org/rfcs/rfc1918.html)에 지정된 프라이빗 IPv4 주소 범위에서 VPC에 대한 IPv4 CIDR 블록을 지정해야 합니다. 허용되는 블록 크기는 `/16` Prefix(65,536개의 IP 주소)와 `/28` Prefix(16개의 IP 주소) 사이입니다.
신규 VPC를 만들 때는 하나의 IPv6 CIDR 블록을 연결할 수 있으며, 기존 VPC를 변경할 때는 최대 5개까지 연결할 수 있습니다. IPv6 VPC의 CIDR 블록의 Prefix 길이는 [1조 개 이상의 IP 주소](https://www.ripe.net/about-us/press-centre/understanding-ip-addressing#:~:text=IPv6%20Relative%20Network%20Sizes%20%20%20%2F128%20,Minimum%20IPv6%20allocation%20%201%20more%20rows%20)를 가진 /64로 고정됩니다. Amazon에서 관리하는 IPv6 주소 풀에서 IPv6 CIDR 블록을 요청할 수 있습니다.
Amazon EKS 클러스터는 IPv4와 IPv6를 모두 지원합니다. 기본적으로 EKS 클러스터는 IPv4 IP를 사용합니다. 클러스터 생성 시 IPv6을 지정하면 IPv6 클러스터를 사용할 수 있습니다. IPv6 클러스터에는 듀얼 스택 VPC와 서브넷이 필요합니다.
Amazon EKS는 클러스터를 생성하는 동안 서로 다른 가용 영역에 있는 서브넷을 두 개 이상 사용할 것을 권장합니다. 클러스터를 생성할 때 전달하는 서브넷을 클러스터 서브넷이라고 합니다. 클러스터를 생성할 때 Amazon EKS는 지정한 서브넷에 최대 4개의 교차 계정(x-account 또는 x-ENIs) ENI를 생성합니다.x-ENI는 항상 배포되며 로그 전송, 실행 및 프록시와 같은 클러스터 관리 트래픽에 사용됩니다. 전체 [VPC 및 서브넷 요구 사항](https://docs.aws.amazon.com/eks/latest/userguide/network_reqs.html#network-requirements-subnets) 세부 정보는 EKS 사용자 가이드를 참조합니다.
쿠버네티스 워커 노드는 클러스터 서브넷에서 실행할 수 있지만 권장되지는 않습니다. [클러스터 업그레이드](https://aws.github.io/aws-eks-best-practices/upgrades/#verify-available-ip-addresses) 중에 Amazon EKS는 클러스터 서브넷에 추가 ENI를 프로비저닝합니다. 클러스터가 확장되면 워커 노드와 파드가 클러스터 서브넷에서 가용 IP를 사용할 수 있습니다. 따라서 사용 가능한 IP를 충분히 확보하려면 /28 넷마스크가 있는 전용 클러스터 서브넷 사용을 고려할 수 있습니다.
쿠버네티스 워커 노드는 퍼블릭 또는 프라이빗 서브넷에서 실행할 수 있습니다. 서브넷이 퍼블릭인지 프라이빗인지는 서브넷 내의 트래픽이 [인터넷 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_Internet_Gateway.html)를 통해 라우팅되는지 여부를 뜻합니다. 퍼블릭 서브넷에는 인터넷 게이트웨이를 통해 인터넷으로 라우팅되는 라우트 테이블 항목이 있지만 프라이빗 서브넷에는 없습니다.
다른 곳에서 시작하여 노드에 도착하는 트래픽을 *인그레스(ingress)*라고 합니다. 노드에서 시작하여 네트워크 외부로 가는 트래픽을 *이그레스(egress)*라고 합니다. 인터넷 게이트웨이로 구성된 서브넷 내에 퍼블릭 또는 Elastic IP Address(EIP)를 가진 노드는 VPC 외부로부터의 인그레스를 허용합니다. 프라이빗 서브넷에는 일반적으로 [NAT 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)가 포함되어 있는데, 이 게이트웨이는 노드로부터의 트래픽이 VPC를 나가는 것(*이그레스*)은 허용하면서 VPC 내에서 노드로의 인그레스 트래픽만 허용합니다.
IPv6 환경에서는 모든 주소를 인터넷으로 라우팅할 수 있습니다. 노드 및 파드와 연결된 IPv6 주소는 퍼블릭입니다. 프라이빗 서브넷은 VPC에 [egress-only internet gateways (EIGW)](https://docs.aws.amazon.com/vpc/latest/userguide/egress-only-internet-gateway.html)를 구성하여 아웃바운드 트래픽을 허용하는 동시에 들어오는 트래픽은 모두 차단하는 방식으로 지원됩니다. IPv6 서브넷 구현의 모범 사례는 [VPC 사용자 가이드](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_Scenario2.html)에서 확인할 수 있습니다.
### 다음과 같은 세 가지 방법으로 VPC와 서브넷을 구성할 수 있습니다.
#### 퍼블릭 서브넷만 사용
동일한 퍼블릭 서브넷에서 노드와 인그레스 리소스(예: 로드 밸런서)가 모두 생성됩니다. 퍼블릭 서브넷에 [`kubernetes.io/role/elb`](http://kubernetes.io/role/elb) 태그를 지정하여 인터넷에 연결된 로드 밸런서를 구성합니다. 해당 구성에서는 클러스터 엔드포인트를 퍼블릭, 프라이빗 또는 둘 다 (퍼블릭 및 프라이빗)로 구성할 수 있습니다.
#### 프라이빗 및 퍼블릭 서브넷 사용
노드는 프라이빗 서브넷에서 생성되는 반면, 인그레스 리소스는 퍼블릭 서브넷에서 인스턴스화됩니다. 클러스터 엔드포인트에 대한 퍼블릭, 프라이빗 또는 둘 다(퍼블릭 및 프라이빗) 액세스를 사용하도록 설정할 수 있습니다. 클러스터 엔드포인트의 구성에 따라 노드 트래픽은 NAT 게이트웨이 또는 ENI를 통해 들어옵니다.
#### 프라이빗 서브넷만 사용
노드와 인그레스 모두 프라이빗 서브넷에서 생성됩니다. [`kubernetes.io/role/internal-elb`](http://kubernetes.io/role/internal-elb:1) 서브넷 태그를 사용하여 내부용 로드 밸런서를 구성합니다. 클러스터의 엔드포인트에 접근하려면 VPN 연결이 필요합니다. EC2와 모든 Amazon ECR 및 S3 리포지토리에 대해 [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/userguide/endpoint-service.html)를 활성화해야 합니다. 클러스터의 프라이빗 엔드포인트만 활성화해야 합니다. 프라이빗 클러스터를 프로비저닝하기 전 [EKS 프라이빗 클러스터 요구 사항](https://docs.aws.amazon.com/eks/latest/userguide/private-clusters.html)을 읽어볼 것을 권장합니다.
### VPC간 통신
여러 개의 VPC와 이러한 VPC에 배포된 별도의 EKS 클러스터들이 필요한 경우가 많이 있습니다.
[Amazon VPC Lattice](https://aws.amazon.com/vpc/lattice/)를 사용하면 여러 VPC와 계정에서 서비스를 일관되고 안전하게 연결할 수 있습니다(VPC 피어링, AWS PrivateLink 또는 AWS Transit Gateway와 같은 서비스에서 추가 연결을 제공할 필요 없음). [여기](https://aws.amazon.com/blogs/networking-and-content-delivery/build-secure-multi-account-multi-vpc-connectivity-for-your-applications-with-amazon-vpc-lattice/)에서 자세한 내용을 확인할 수 있습니다.
![Amazon VPC Lattice, traffic flow](./vpc-lattice.gif)
Amazon VPC Lattice는 IPv4 및 IPv6의 링크 로컬 주소 공간에서 작동하며, IPv4 주소가 겹칠 수 있는 서비스 간의 연결을 제공합니다. 운영 효율성을 위해 EKS 클러스터와 노드를 겹치지 않는 IP 범위에 배포할 것을 권장합니다. 인프라에 IP 범위가 겹치는 VPC가 포함된 경우에는 그에 맞게 네트워크를 설계해야 합니다. 라우팅 가능한 RFC1918 IP 주소를 유지하면서 중복되는 CIDR 문제를 해결하기 위해 [프라이빗 NAT 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html#nat-gateway-basics) 또는 [사용자 지정 네트워킹](../custom-networking/index.md) 모드에서 [transit gateway](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-transit-gateway.html)와 함께 VPC CNI를 사용하여 EKS의 워크로드를 통합하는 것을 권장합니다.
![Private Nat Gateway with Custom Networking, traffic flow](./private-nat-gw.gif)
서비스 제공자이고 별도의 계정으로 고객 VPC와 쿠버네티스 서비스 및 인그레스(ALB 또는 NLB)를 공유하려는 경우, 엔드포인트 서비스라고도 불리는 [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html) 활용을 고려합니다.
### 여러 계정에서의 VPC 공유
많은 기업에서 AWS 조직 내 여러 AWS 계정의 네트워크 관리를 간소화하고, 비용을 절감하고, 보안을 개선하기 위한 수단으로 공유 Amazon VPC를 도입합니다. 이들은 AWS Resource Access Manager(RAM)를 활용하여 지원되는 [AWS 리소스](https://docs.aws.amazon.com/ram/latest/userguide/shareable.html)를 개별 AWS 계정, 조직 단위(OU) 또는 전체 AWS 조직과 안전하게 공유합니다.
AWS RAM을 사용하여 다른 AWS 계정의 공유용 VPC 서브넷에 Amazon EKS 클러스터, 관리형 노드 그룹 및 기타 지원 AWS 리소스(예: 로드밸런서, 보안 그룹, 엔드포인트 등)를 배포할 수 있습니다. 아래 그림은 상위 수준 아키텍처의 예를 보여줍니다. 이를 통해 중앙 네트워크 팀은 VPC, 서브넷 등과 같은 네트워킹 구조를 제어하고, 동시에 애플리케이션 또는 플랫폼 팀은 각자의 AWS 계정에 Amazon EKS 클러스터를 배포할 수 있습니다. 이 시나리오에 대한 전체 설명은 이 [github 저장소](https://github.com/aws-samples/eks-shared-subnets)에서 확인할 수 있습니다.
![Deploying Amazon EKS in VPC Shared Subnets across AWS Accounts.](./eks-shared-subnets.png)
#### 공유 서브넷 사용 시 고려 사항
* Amazon EKS 클러스터와 워커 노드는 모두 동일한 VPC의 공유 서브넷 내에서 생성할 수 있습니다. Amazon EKS는 여러 VPC에서의 클러스터 생성을 지원하지 않습니다.
* Amazon EKS는 AWS VPC 보안 그룹(SG)을 사용하여 쿠버네티스 컨트롤 플레인과 클러스터의 워커 노드 사이의 트래픽을 제어합니다. 또한 보안 그룹은 워커 노드, 기타 VPC 리소스 및 외부 IP 주소 간의 트래픽을 제어하는 데에도 사용됩니다. 애플리케이션/참여자(participant) 계정에서 이러한 보안 그룹을 생성해야 합니다. 파드에 사용할 보안 그룹도 참여자 계정에 있는지 확인합니다. 보안 그룹 내에서 인바운드 및 아웃바운드 규칙을 구성하여 중앙 VPC 계정에 있는 보안 그룹에서 송수신되는 필요한 트래픽을 허용할 수 있습니다.
* Amazon EKS 클러스터가 있는 참여자 계정 내에 IAM 역할 및 관련 정책을 생성합니다. 이러한 IAM 역할 및 정책은 Amazon EKS에서 관리하는 쿠버네티스 클러스터와 Fargate에서 실행되는 노드 및 파드에 필요한 권한을 부여하기 위해 반드시 필요합니다. 이 권한을 통해 Amazon EKS는 사용자를 대신하여 다른 AWS 서비스를 호출할 수 있습니다.
* 다음 접근 방식에 따라 쿠버네티스 파드에서 Amazon S3 버킷, Dynamodb 테이블 등과 같은 AWS 리소스의 계정 간 액세스를 허용할 수 있습니다.
* **리소스 기반 정책 접근 방식**: AWS 서비스가 리소스 정책을 지원하는 경우 적절한 리소스 기반 정책을 추가하여 쿠버네티스 파드에 할당된 IAM 역할에 대한 계정 간 액세스를 허용할 수 있습니다. 이 시나리오에서는 OIDC 공급자, IAM 역할 및 권한 정책이 애플리케이션 계정에 존재하게 됩니다. 리소스 기반 정책을 지원하는 AWS 서비스를 찾으려면 [IAM과 함께 작동하는 AWS 서비스](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_aws-services-that-work-with-iam.html)를 참조하고 리소스 기반 열에서 '예'라고 표시된 서비스를 찾아보십시오.
* **OIDC 공급자 접근 방식**: OIDC 공급자, IAM 역할, 권한 및 신뢰 정책과 같은 IAM 리소스는 리소스가 있는 다른 참여자 AWS 계정에서 생성됩니다. 이러한 역할은 애플리케이션 계정의 쿠버네티스 파드에 할당되어 계정 간 리소스에 액세스할 수 있도록 합니다. 이 접근 방식에 대한 자세한 내용은 [쿠버네티스 서비스 어카운트를 위한 교차 계정 간 IAM 역할](https://aws.amazon.com/blogs/containers/cross-account-iam-roles-for-kubernetes-service-accounts/) 블로그를 참조합니다.
* Amazon Elastic Loadbalancer(ELB) 리소스(ALB 또는 NLB)를 배포하여 애플리케이션 또는 중앙 네트워킹 계정의 쿠버네티스 파드로 트래픽을 라우팅할 수 있습니다. 중앙 네트워킹 계정에 ELB 리소스를 배포하는 방법에 대한 자세한 안내는 [교차 계정 로드 밸런서를 통해 Amazon EKS 파드 노출](https://aws.amazon.com/blogs/containers/expose-amazon-eks-pods-through-cross-account-load-balancer/)안내를 참조합니다. 이 옵션은 로드 밸런서 리소스의 보안 구성에 대한 모든 권한을 중앙 네트워킹 계정에 부여하므로 유연성이 향상됩니다.
* Amazon VPC CNI의 `사용자 지정 네트워킹 기능(custom networking feature)`을 사용하는 경우 중앙 네트워킹 계정에 나열된 가용 영역(AZ) ID 매핑을 사용하여 각각의 `ENIConfig`를 생성해야 합니다. 이는 물리적 AZ를 각 AWS 계정의 AZ 이름에 무작위로 매핑하기 때문입니다.
### 보안 그룹
[*보안 그룹*](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html)은 연결된 리소스에 들어오거나 나가는 것이 허용되는 트래픽을 제어합니다. Amazon EKS는 보안 그룹을 사용하여 [컨트롤 플레인과 노드](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)간의 통신을 관리합니다. 클러스터를 생성하면 Amazon EKS는 `eks-cluster-sg-my-cluster-uniqueID`라는 보안 그룹을 생성합니다. EKS는 이러한 보안 그룹을 관리형 ENI 및 노드에 연결합니다. 기본 규칙을 사용하면 클러스터와 노드 간에 모든 트래픽이 자유롭게 전달되고, 모든 아웃바운드 트래픽이 모든 목적지로 전달되도록 허용합니다.
클러스터를 생성할 때 자체 보안 그룹을 지정할 수 있습니다. 자체 보안 그룹을 지정하는 경우 [보안 그룹 권장 사항](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)을 참조합니다.
## 권장 사항
### 다중 AZ 배포 고려
AWS 리전은 물리적으로 분리되고 격리된 여러 가용 영역(AZ)을 제공하며, 이러한 가용 영역은 지연 시간이 짧고 처리량이 높으며 중복성이 높은 네트워킹으로 연결됩니다. 가용 영역을 활용하여 가용 영역 간에 중단 없이 자동으로 장애 조치되는 애플리케이션을 설계하고 운영할 수 있습니다. Amazon EKS는 EKS 클러스터를 여러 가용 영역에 배포할 것을 강력히 권장합니다. 클러스터를 생성할 때 최소 두 개의 가용 영역에 서브넷을 지정하는 것을 고려합니다.
노드에서 실행되는 Kubelet은 [`topology.kubernetes.io/region=us-west-2`, `topology.kubernetes.io/zone=us-west-2d`](http://topology.kubernetes.io/region=us-west-2,topology.kubernetes.io/zone=us-west-2d)와 같은 레이블을 노드 오브젝트에 자동으로 추가합니다. 노드 레이블을 [Pod topology spread constraints](https://kubernetes.io/docs/concepts/scheduling-eviction/topology-spread-constraints/)와 함께 사용하여 파드가 여러 영역에 분산되는 방식을 제어할 것을 권장합니다. 이러한 힌트를 통해 쿠버네티스 [스케줄러](https://kubernetes.io/docs/reference/command-line-tools-reference/kube-scheduler/)가 예상 가용성을 높이기 위해 파드를 배치하여 상관 관계가 있는 장애가 전체 워크로드에 영향을 미칠 위험을 줄일 수 있습니다. 노드 셀렉터 및 AZ 분산 제약 조건의 예를 보려면 [파드에 노드 할당](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#nodeselector)을 참조합니다.
노드를 생성할 때 서브넷 또는 가용 영역을 정의할 수 있습니다. 서브넷이 구성되지 않은 경우 노드는 클러스터 서브넷에 배치됩니다. 관리형 노드 그룹에 대한 EKS 지원은 가용 용량을 기준으로 여러 가용 영역에 노드를 자동으로 분산합니다. 워크로드가 topology spread constraints를 정의하는 경우 [Karpenter](https://karpenter.sh/)는 노드를 지정된 AZ로 확장하여 AZ 분산 배치를 준수합니다.
AWS Elastic Loadbalancer는 쿠버네티스 클러스터의 AWS 로드 밸런서 컨트롤러에 의해 관리됩니다. 쿠버네티스 인그레스 리소스를 위한 애플리케이션 로드 밸런서(ALB)와 로드밸런서 유형의 쿠버네티스 서비스를 위한 네트워크 로드 밸런서(NLB)를 프로비저닝합니다. Elastic Loadbalancer 컨트롤러는 [태그](https://aws.amazon.com/premiumsupport/knowledge-center/eks-vpc-subnet-discovery/)를 사용하여 서브넷을 검색합니다. ELB 컨트롤러가 인그레스 리소스를 성공적으로 프로비저닝하려면 최소 두 개의 가용 영역 (AZ)이 필요합니다. 지리적 이중화의 안전성과 안정성을 활용하기 위해 최소 두 개의 AZ에 서브넷을 설정할 것을 권장합니다.
### 프라이빗 서브넷에 노드 배포
프라이빗 서브넷과 퍼블릭 서브넷을 모두 포함하는 VPC는 쿠버네티스 워크로드를 EKS에 배포하는 데 가장 적합한 방법입니다. 서로 다른 두 가용 영역에 최소 두 개의 퍼블릭 서브넷과 두 개의 프라이빗 서브넷을 설정할 것을 고려합니다. 퍼블릭 서브넷의 라우팅 테이블에는 인터넷 게이트웨이에 대한 경로가 포함되어 있습니다. 파드는 NAT 게이트웨이를 통해 인터넷과 상호작용할 수 있습니다. IPv6 환경(EIGW)에서의 프라이빗 서브넷은 [외부 전용 인터넷 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/egress-only-internet-gateway.html)를 통해 지원됩니다.
프라이빗 서브넷에서 노드를 인스턴스화하면 노드에 대한 트래픽 제어를 최대화 할 수 있으며 대부분의 쿠버네티스 애플리케이션에 적합합니다. 인그레스 리소스(예: 로드 밸런서)는 퍼블릭 서브넷에서 인스턴스화되고 프라이빗 서브넷에서 작동하는 파드로 트래픽을 라우팅합니다.
엄격한 보안 및 네트워크 격리가 필요한 경우 프라이빗 전용 모드를 고려합니다. 이 구성에서는 세 개의 프라이빗 서브넷이 AWS 리전 내 VPC의 서로 다른 가용 영역에 배포됩니다. 서브넷에 배포된 리소스는 인터넷에 액세스할 수 없으며 인터넷에서 서브넷의 리소스로도 액세스할 수 없습니다. 쿠버네티스 애플리케이션이 다른 AWS 서비스에 액세스할 수 있으려면 PrivateLink 인터페이스 및/또는 게이트웨이 엔드포인트를 구성해야 합니다. AWS 로드 밸런서 컨트롤러를 사용하여 내부 로드 밸런서가 트래픽을 파드로 리디렉션하도록 설정할 수 있습니다. 컨트롤러가 로드 밸런서를 프로비저닝하려면 프라이빗 서브넷에 ([``kubernetes.io/role/internal-elb: 1`](http://kubernetes.io/role/internal-elb)) 태그를 지정해야 합니다. 노드를 클러스터에 등록하려면 클러스터 엔드포인트를 프라이빗 모드로 설정해야 합니다. 전체 요구 사항 및 고려 사항은 [프라이빗 클러스터 가이드](https://docs.aws.amazon.com/eks/latest/userguide/private-clusters.html)를 참조합니다.
### 클러스터 엔드포인트의 퍼블릭 및 프라이빗 모드 고려
Amazon EKS는 퍼블릭 전용, 퍼블릭 및 프라이빗, 프라이빗 전용 클러스터 엔드포인트 모드를 제공합니다. 기본 모드는 퍼블릭 전용이지만 클러스터 엔드포인트를 퍼블릭 및 프라이빗 모드로 구성하는 것을 권장합니다. 이 옵션을 사용하면 클러스터 VPC 내에서의 쿠버네티스 API 호출(예: 노드와 컨트롤 플레인 간 통신)에 프라이빗 VPC 엔드포인트를 활용하고 트래픽이 클러스터의 VPC 내에 유지되도록 할 수 있습니다. 반면 클러스터 API 서버는 인터넷을 통해 연결할 수 있습니다. 하지만 퍼블릭 엔드포인트를 사용할 수 있는 CIDR 블록은 제한하는 것이 좋습니다. [CIDR 블록 제한을 포함하여 퍼블릭 및 프라이빗 엔드포인트 액세스를 구성하는 방법을 알아봅니다.](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html#modify-endpoint-access)
보안 및 네트워크 격리가 필요한 경우 프라이빗 전용 엔드포인트를 사용하는 것을 권장합니다. [EKS 사용자 가이드](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html#private-access)에 제시된 옵션 중 하나를 사용하여 API 서버에 프라이빗하게 연결할 것을 권장합니다.
### 보안 그룹을 신중하게 구성
Amazon EKS는 사용자 지정 보안 그룹 사용을 지원합니다. 모든 사용자 지정 보안 그룹은 노드와 쿠버네티스 컨트롤 플레인 간의 통신을 허용해야 합니다. 조직 내에서 개방형 통신을 허용하지 않는 경우 [포트 요구 사항](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html)을 확인하고 규칙을 수동으로 구성합니다.
EKS는 클러스터 생성 중에 제공하는 사용자 지정 보안 그룹을 관리형 인터페이스(X-ENI)에 적용합니다. 하지만 사용자 지정 보안그룹이 노드와 즉시 연결되지는 않습니다. 노드 그룹을 생성할 때는 수동으로 [사용자 지정 보안 그룹을 연결](https://eksctl.io/usage/schema/#nodeGroups-securityGroups)할 것을 권장합니다. 노드 오토스케일링 중 사용자 지정 보안 그룹의 Karpenter 노드 템플릿 검색을 활성화하려면 [securityGroupSelectorTerms](https://karpenter.sh/docs/concepts/nodeclasses/#specsecuritygroupselectorterms)를 활성화할 것을 고려합니다.
모든 노드 간 통신 트래픽을 허용하는 보안 그룹을 생성하는 것을 강력히 권장합니다. 부트스트랩 프로세스 중에 노드가 클러스터 엔드포인트에 액세스하려면 아웃바운드 인터넷 연결이 필요합니다. 온프레미스 연결 및 컨테이너 레지스트리 액세스와 같은 외부 액세스 요구 사항을 평가하고 규칙을 적절하게 설정합니다. 변경 사항을 프로덕션에 적용하기 전에 개발 환경에서 네트워크 연결을 주의 깊게 확인할 것을 권장합니다.
### 각 가용 영역에 NAT 게이트웨이 배포
프라이빗 서브넷(IPv4 및 IPv6)에 노드를 배포하는 경우 각 가용 영역(AZ)에 NAT 게이트웨이를 생성하여 가용 영역에 독립적인 아키텍처를 보장하고 AZ 간 비용을 절감하는 것을 고려합니다. AZ의 각 NAT 게이트웨이는 이중화로 구현됩니다.
### Cloud9을 사용하여 프라이빗 클러스터에 액세스
AWS Cloud9는 AWS Systems Manager를 사용하여 인그레스 액세스 없이 프라이빗 서브넷에서 안전하게 실행할 수 있는 웹 기반 IDE입니다. Cloud9 인스턴스에서 이그레스를 비활성화할 수도 있습니다. [Cloud9를 사용하여 프라이빗 클러스터와 서브넷에 액세스하는 방법에 대해 자세히 알아보십시오.](https://aws.amazon.com/blogs/security/isolating-network-access-to-your-aws-cloud9-environments/)
![illustration of AWS Cloud9 console connecting to no-ingress EC2 instance.](./image-2.jpg)
| eks | search exclude true VPC EKS AWS VPC VPC VPC EKS EKS VPC VPC https docs aws amazon com eks latest userguide network reqs html Amazon EKS https docs aws amazon com eks latest userguide sec group reqs html EKS EKS VPC AWS VPC VPC VPC AWS VPC VPC VPC eksctl VPC VPC AWS VPC API a EKS b EKS Elastic Network Interface https docs aws amazon com AWSEC2 latest UserGuide using eni html X ENI EKS VPC EKS X ENI API ENI VPC general illustration of cluster networking including load balancer nodes and pods image png EKS kubelet kubelet VPC VPC Kubelet API EKS EKS https docs aws amazon com eks latest userguide cluster endpoint html VPC API EKS API Amazon EKS VPC API VPC Amazon IP NAT IP NAT VPC API VPC X ENI API API API VPC VPC X ENI API Amazon VPC Amazon EKS https aws amazon com premiumsupport knowledge center eks private cluster endpoint vpc API DNS VPC IP VPC VPC Amazon VPC IPv4 IPv6 Amazon EKS IPv4 VPC IPv4 CIDR IPv4 Classless Inter Domain Routing http en wikipedia org wiki CIDR notation CIDR IPv6 CIDR VPC VPC RFC 1918 http www faqs org rfcs rfc1918 html IPv4 VPC IPv4 CIDR 16 Prefix 65 536 IP 28 Prefix 16 IP VPC IPv6 CIDR VPC 5 IPv6 VPC CIDR Prefix 1 IP https www ripe net about us press centre understanding ip addressing text IPv6 20Relative 20Network 20Sizes 20 20 20 2F128 20 Minimum 20IPv6 20allocation 20 201 20more 20rows 20 64 Amazon IPv6 IPv6 CIDR Amazon EKS IPv4 IPv6 EKS IPv4 IP IPv6 IPv6 IPv6 VPC Amazon EKS Amazon EKS 4 x account x ENIs ENI x ENI VPC https docs aws amazon com eks latest userguide network reqs html network requirements subnets EKS https aws github io aws eks best practices upgrades verify available ip addresses Amazon EKS ENI IP IP 28 https docs aws amazon com vpc latest userguide VPC Internet Gateway html ingress egress Elastic IP Address EIP VPC NAT https docs aws amazon com vpc latest userguide vpc nat gateway html VPC VPC IPv6 IPv6 VPC egress only internet gateways EIGW https docs aws amazon com vpc latest userguide egress only internet gateway html IPv6 VPC https docs aws amazon com vpc latest userguide VPC Scenario2 html VPC kubernetes io role elb http kubernetes io role elb NAT ENI kubernetes io role internal elb http kubernetes io role internal elb 1 VPN EC2 Amazon ECR S3 AWS PrivateLink https docs aws amazon com vpc latest userguide endpoint service html EKS https docs aws amazon com eks latest userguide private clusters html VPC VPC VPC EKS Amazon VPC Lattice https aws amazon com vpc lattice VPC VPC AWS PrivateLink AWS Transit Gateway https aws amazon com blogs networking and content delivery build secure multi account multi vpc connectivity for your applications with amazon vpc lattice Amazon VPC Lattice traffic flow vpc lattice gif Amazon VPC Lattice IPv4 IPv6 IPv4 EKS IP IP VPC RFC1918 IP CIDR NAT https docs aws amazon com vpc latest userguide vpc nat gateway html nat gateway basics custom networking index md transit gateway https docs aws amazon com whitepapers latest aws vpc connectivity options aws transit gateway html VPC CNI EKS Private Nat Gateway with Custom Networking traffic flow private nat gw gif VPC ALB NLB AWS PrivateLink https docs aws amazon com vpc latest privatelink privatelink share your services html VPC AWS AWS Amazon VPC AWS Resource Access Manager RAM AWS https docs aws amazon com ram latest userguide shareable html AWS OU AWS AWS RAM AWS VPC Amazon EKS AWS VPC AWS Amazon EKS github https github com aws samples eks shared subnets Deploying Amazon EKS in VPC Shared Subnets across AWS Accounts eks shared subnets png Amazon EKS VPC Amazon EKS VPC Amazon EKS AWS VPC SG VPC IP participant VPC Amazon EKS IAM IAM Amazon EKS Fargate Amazon EKS AWS Amazon S3 Dynamodb AWS AWS IAM OIDC IAM AWS IAM AWS https docs aws amazon com IAM latest UserGuide reference aws services that work with iam html OIDC OIDC IAM IAM AWS IAM https aws amazon com blogs containers cross account iam roles for kubernetes service accounts Amazon Elastic Loadbalancer ELB ALB NLB ELB Amazon EKS https aws amazon com blogs containers expose amazon eks pods through cross account load balancer Amazon VPC CNI custom networking feature AZ ID ENIConfig AZ AWS AZ https docs aws amazon com vpc latest userguide VPC SecurityGroups html Amazon EKS https docs aws amazon com eks latest userguide sec group reqs html Amazon EKS eks cluster sg my cluster uniqueID EKS ENI https docs aws amazon com eks latest userguide sec group reqs html AZ AWS AZ Amazon EKS EKS Kubelet topology kubernetes io region us west 2 topology kubernetes io zone us west 2d http topology kubernetes io region us west 2 topology kubernetes io zone us west 2d Pod topology spread constraints https kubernetes io docs concepts scheduling eviction topology spread constraints https kubernetes io docs reference command line tools reference kube scheduler AZ https kubernetes io docs concepts scheduling eviction assign pod node nodeselector EKS topology spread constraints Karpenter https karpenter sh AZ AZ AWS Elastic Loadbalancer AWS ALB NLB Elastic Loadbalancer https aws amazon com premiumsupport knowledge center eks vpc subnet discovery ELB AZ AZ VPC EKS NAT IPv6 EIGW https docs aws amazon com vpc latest userguide egress only internet gateway html AWS VPC AWS PrivateLink AWS kubernetes io role internal elb 1 http kubernetes io role internal elb https docs aws amazon com eks latest userguide private clusters html Amazon EKS VPC API VPC VPC API CIDR CIDR https docs aws amazon com eks latest userguide cluster endpoint html modify endpoint access EKS https docs aws amazon com eks latest userguide cluster endpoint html private access API Amazon EKS https docs aws amazon com eks latest userguide sec group reqs html EKS X ENI https eksctl io usage schema nodeGroups securityGroups Karpenter securityGroupSelectorTerms https karpenter sh docs concepts nodeclasses specsecuritygroupselectorterms NAT IPv4 IPv6 AZ NAT AZ AZ NAT Cloud9 AWS Cloud9 AWS Systems Manager IDE Cloud9 Cloud9 https aws amazon com blogs security isolating network access to your aws cloud9 environments illustration of AWS Cloud9 console connecting to no ingress EC2 instance image 2 jpg |
eks search iframe width 560 height 315 src https www youtube com embed FIBc8GkjFU0 title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe exclude true Cluster Autoscaler | ---
search:
exclude: true
---
# 쿠버네티스 Cluster Autoscaler
<iframe width="560" height="315" src="https://www.youtube.com/embed/FIBc8GkjFU0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
## 개요
[쿠버네티스 Cluster Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler)는 [SIG 오토스케일링](https://github.com/kubernetes/community/tree/master/sig-autoscaling)에서 유지 관리하는 인기 있는 클러스터 오토스케일링 솔루션입니다. 이는 클러스터에 리소스를 낭비하지 않고 파드를 스케줄링할 수 있는 충분한 노드가 있는지 확인하는 역할을 합니다. Cluster Autoscaler는 스케줄링에 실패한 파드와 활용도가 낮은 노드를 감시합니다. 그런 다음 클러스터에 변경 사항을 적용하기 전에 노드 추가 또는 제거를 시뮬레이션합니다. Cluster Autoscaler 내의 AWS 클라우드 공급자 구현은 EC2 Auto Scaling 그룹의 `.desireReplicas` 필드를 제어합니다.
![](./architecture.png)
이 가이드는 Cluster Autoscaler를 구성하고 조직의 요구 사항에 가장 적합한 절충안을 선택하기 위한 멘탈 모델을 제공합니다. 최상의 단일 구성은 없지만 성능, 확장성, 비용 및 가용성을 절충할 수 있는 구성 옵션 집합이 있습니다.또한 이 안내서는 AWS 구성을 최적화하기 위한 팁과 모범 사례를 제공합니다.
### 용어집
다음 용어는 이 문서 전체에서 자주 사용됩니다. 이런 용어는 광범위한 의미를 가질 수 있지만 이 문서의 목적상 아래 정의로만 제한됩니다.
**확장성**은 쿠버네티스 클러스터의 파드 및 노드 수가 증가할 때 Cluster Autoscaler가 얼마나 잘 작동하는지를 나타냅니다. 확장성 한계에 도달하면 Cluster Autoscaler의 성능과 기능이 저하됩니다. Cluster Autoscaler가 확장성 제한을 초과하면 더 이상 클러스터에서 노드를 추가하거나 제거할 수 없습니다.
**성능**은 Cluster Autoscaler가 규모 조정 결정을 얼마나 빨리 내리고 실행할 수 있는지를 나타냅니다. 완벽하게 작동하는 Cluster Autoscaler는 파드를 스케줄링할 수 없는 등의 이벤트에 대응하여 즉시 결정을 내리고 스케일링 조치를 트리거합니다.
**가용성**은 파드를 중단 없이 신속하게 스케줄링할 수 있다는 뜻이다. 여기에는 새로 생성된 파드를 스케줄링해야 하는 경우와 축소된 노드가 스케줄링된 나머지 파드를 종료하는 경우가 포함됩니다.
**비용**은 스케일-아웃 및 스케일-인 이벤트에 대한 결정에 따라 결정됩니다. 기존 노드의 활용도가 낮거나 들어오는 파드에 비해 너무 큰 새 노드를 추가하면 리소스가 낭비됩니다. 사용 사례에 따라 공격적인 규모 축소 결정으로 인해 파드를 조기에 종료하는 데 따른 비용이 발생할 수 있다.
**노드 그룹**은 클러스터 내 노드 그룹에 대한 추상적인 쿠버네티스 개념입니다. 이는 쿠버네티스 리소스는 아니지만 Cluster Autoscaler, 클러스터 API 및 기타 구성 요소에 추상화된 형태로 존재합니다. 노드 그룹 내의 노드는 레이블 및 테인트와 같은 속성을 공유하지만 여러 가용영역 또는 인스턴스 유형으로 구성될 수 있습니다.
**EC2 Auto Scaling 그룹**은 EC2의 노드 그룹 구현으로 사용할 수 있습니다. EC2 Auto Scaling 그룹은 쿠버네티스 클러스터에 자동으로 가입하고 쿠버네티스 API의 해당 노드 리소스에 레이블과 테인트를 적용하는 인스턴스를 시작하도록 구성되어 있습니다.
**EC2 관리형 노드 그룹**은 EC2에 노드 그룹을 구현한 또 다른 예입니다. EC2 오토스케일링 그룹을 수동으로 구성하는 복잡성을 없애고 노드 버전 업그레이드 및 정상적인 노드 종료와 같은 추가 관리 기능을 제공합니다.
### Cluster Autoscaler 운영
Cluster Autoscaler는 일반적으로 클러스터에 [디플로이먼트](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler/cloudprovider/aws/examples) 타입으로 설치됩니다. 고가용성을 보장하기 위해 [리더선출](https://en.wikipedia.org/wiki/Leader_election)를 사용하지만 작업은 하나의 레플리카에서만 수행됩니다. 수평적으로 확장할 수는 없습니다. 기본 설정의 경우 제공된 [설치지침](https://docs.aws.amazon.com/eks/latest/userguide/cluster-autoscaler.html)을 사용하면 기본값이 기본적으로 작동하지만 몇 가지 유의해야 할 사항이 있습니다.
다음 사항을 확인하세요:
* Cluster Autoscaler 버전이 클러스터 버전과 일치하는지 확인합니다. 쿠버네티스 버전 별 공식 호환되는 버전 외에 타 버전의 호환성은 [테스트 되지 않거나 지원되지 않습니다](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/README.md#releases).
* 이 모드를 사용하지 못하게 하는 특정 고급 사용 사례가 없는 한 [Auto Discovery](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler/cloudprovider/aws#auto-discovery-setup)를 활성화했는지 확인합니다.
### IAM 역할에 최소 접근 권한 적용
[Auto Discovery](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md#Auto-discovery-setup)를 사용하는 경우, `autoscaling:SetDesiredCapacity` 및 `autoscaling:TerminateInstanceInAutoScalingGroup`작업을 현재 클러스터로 범위가 지정된 오토스케일링그룹으로 제한하여 최소 접근 권한을 사용하는 것을 권장합니다.
이렇게 하면 `--node-group-auto-discovery` 인수가 태그를 사용하여 클러스터의 노드 그룹으로 범위를 좁히지 않았더라도 (예: `k8s.io/cluster-autoscaler/<cluster-name>`) 한 클러스터에서 실행 중인 Cluster Autoscaler가 다른 클러스터의 노드 그룹을 수정할 수 없게 됩니다.
```json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"autoscaling:SetDesiredCapacity",
"autoscaling:TerminateInstanceInAutoScalingGroup"
],
"Resource": "*",
"Condition": {
"StringEquals": {
"aws:ResourceTag/k8s.io/cluster-autoscaler/enabled": "true",
"aws:ResourceTag/k8s.io/cluster-autoscaler/<my-cluster>": "owned"
}
}
},
{
"Effect": "Allow",
"Action": [
"autoscaling:DescribeAutoScalingGroups",
"autoscaling:DescribeAutoScalingInstances",
"autoscaling:DescribeLaunchConfigurations",
"autoscaling:DescribeScalingActivities",
"autoscaling:DescribeTags",
"ec2:DescribeImages",
"ec2:DescribeInstanceTypes",
"ec2:DescribeLaunchTemplateVersions",
"ec2:GetInstanceTypesFromInstanceRequirements",
"eks:DescribeNodegroup"
],
"Resource": "*"
}
]
}
```
### 노드 그룹 구성
효과적인 오토스케일링은 클러스터의 노드 그룹 세트를 올바르게 구성하는 것에서 시작됩니다. 워크로드 전반에서 가용성을 극대화하고 비용을 절감하려면 올바른 노드 그룹 세트를 선택하는 것이 중요합니다. AWS는 다양한 사용 사례에 유연하게 적용할 수 있는 EC2 Auto Scaling 그룹을 사용하여 노드 그룹을 구현합니다. 하지만 Cluster Autoscaler는 노드 그룹에 대해 몇 가지 가정을 합니다. EC2 Auto Scaling 그룹 구성을 이런 가정과 일관되게 유지하면 원치 않는 동작을 최소화할 수 있습니다.
다음을 확인하십시오.
* 노드 그룹의 각 노드는 레이블, 테인트, 리소스와 같은 동일한 스케줄링 속성을 가집니다.
* 혼합 인스턴스 정책의 경우 인스턴스 유형은 동일한 스펙의 CPU, 메모리 및 GPU이여야 합니다.
* 정책에 지정된 첫 번째 인스턴스 유형은 스케줄링을 시뮬레이션하는 데 사용됩니다.
* 정책에 더 많은 리소스가 포함된 추가 인스턴스 유형이 있는 경우 확장 후 리소스가 낭비될 수 있습니다.
* 정책에 리소스가 적은 추가 인스턴스 유형이 있는 경우, 파드가 해당 인스턴스에서 일정을 예약하지 못할 수 있습니다.
* 노드 수가 적은 노드 그룹보다 노드가 많은 노드 그룹이 선호됩니다. 이는 확장성에 가장 큰 영향을 미칩니다.
* 가능하면 두 시스템 모두 지원을 제공하는 EC2 기능 (예: 지역, 혼합 인스턴스 정책) 을 선호하십시오.
*참고: [EKS 관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html)을 사용하는 것을 권장합니다. 관리형 노드 그룹에는 자동 EC2 Auto Scaling 그룹 검색 및 정상적인 노드 종료와 같은 Cluster Autoscaler 기능을 비롯한 강력한 관리 기능이 포함되어 있습니다.*
## 성능 및 확장성 최적화
오토스케일링 알고리즘의 런타임 복잡성을 이해하면 [1,000개 노드](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/proposals/scalability_tests.md)를 초과하는 대규모 클러스터에서 계속 원활하게 작동하도록 Cluster Autoscaler를 튜닝하는 데 도움이 됩니다.
Cluster Autoscaler의 확장성을 조정하기 위한 주요한 요소는 프로세스에 제공되는 리소스, 알고리즘의 스캔 간격, 클러스터의 노드 그룹 수입니다. 이 알고리즘의 실제 런타임 복잡성에는 스케줄링 플러그인 복잡성 및 파드 수와 같은 다른 요인도 있습니다. 이런 파라미터는 클러스터의 워크로드에 자연스럽게 영향을 미치며 쉽게 조정할 수 없기 때문에 구성할 수 없는 파라미터로 간주됩니다.
Cluster Autoscaler는 파드, 노드, 노드 그룹을 포함하여 전체 클러스터의 상태를 메모리에 로드합니다. 알고리즘은 각 스캔 간격마다 스케줄링할 수 없는 파드를 식별하고 각 노드 그룹에 대한 스케줄링을 시뮬레이션합니다. 이런 요소를 조정하는 것은 서로 다른 장단점이 있으므로 사용 사례에 맞게 신중하게 고려해야 합니다.
### Cluster Autoscaler의 수직 오토스케일링
Cluster Autoscaler를 대규모 클러스터로 확장하는 가장 간단한 방법은 배포를 위한 리소스 요청을 늘리는 것입니다. 클러스터 크기에 따라 크게 다르지만 대규모 클러스터의 경우 메모리와 CPU를 모두 늘려야 합니다. 오토스케일링 알고리즘은 모든 파드와 노드를 메모리에 저장하므로 경우에 따라 메모리 사용량이 1GB보다 커질 수 있습니다. 리소스 증가는 일반적으로 수동으로 수행됩니다. 지속적인 리소스 튜닝으로 인해 운영상의 부담이 생긴다면 [Addon Resizer](https://github.com/kubernetes/autoscaler/tree/master/addon-resizer) 또는 [Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler) 사용을 고려해 보세요.
### 노드 그룹 수 줄이기
대규모 클러스터에서 Cluster Autoscaler가 계속 잘 작동하도록 하는 한 가지 방법은 노드 그룹 수를 최소화하는 것입니다. 팀 또는 응용 프로그램별로 노드 그룹을 구성하는 일부 조직에서는 이것이 어려울 수 있습니다. 이는 Kubernetes API에서 완벽하게 지원되지만 확장성에 영향을 미치는 Cluster Autoscaler 비권장 패턴으로 간주됩니다. 다중 노드 그룹(예: 스팟 또는 GPU)을 사용하는 데에는 여러 가지 이유가 있지만, 대부분의 경우 적은 수의 그룹을 사용하면서 동일한 효과를 얻을 수 있는 대안 설계가 있습니다.
다음을 확인합니다:
* 파드 격리는 노드 그룹이 아닌 네임스페이스를 사용하여 수행됩니다.
* 신뢰도가 낮은 멀티테넌트 클러스터에서는 불가능할 수 있습니다.
* 파드 리소스 요청(request)과 리소스 제한(limit)은 리소스 경합을 방지하기 위해 적절하게 설정되었다.
* 인스턴스 유형이 클수록 빈 패킹이 최적화되고 시스템 파드 오버헤드가 줄어듭니다.
* NodeTaints 또는 NodeSelector는 파드를 예외적으로 스케줄링하는 데 사용되는 것이지, 규칙이 아닙니다.
* 리전 리소스는 멀티 가용영역을 포함하는 단일 EC2 Auto Scaling 그룹으로 정의됩니다.
### 스캔 간격 줄이기
스캔 간격(예: 10초)을 짧게 설정하면 파드를 스케줄링할 수 없을 때 Cluster Autoscaler가 최대한 빨리 응답할 수 있습니다. 하지만 스캔할 때마다 쿠버네티스 API 및 EC2 Auto Scaling 그룹 또는 EKS 관리형 노드 그룹 API에 대한 API 호출이 많이 발생합니다. 이런 API 호출로 인해 Kubernetes 컨트롤 플레인의 속도가 제한되거나 서비스를 사용할 수 없게 될 수도 있습니다.
디폴트 스캔 간격은 10초이지만 AWS에서 새로운 노드를 시작하는 데는 새 인스턴스를 시작하는 등 훨씬 더 오랜 시간이 소요됩니다. 즉, 전체 스케일업 시간을 크게 늘리지 않고도 스캔 간격을 늘릴 수 있습니다. 예를 들어 노드를 시작하는 데 2분이 걸리는 경우 스캔 간격을 1분으로 변경하면 API 호출이 6배 줄어들고 확장이 38% 느려지는 절충점이 발생합니다.
### 노드 그룹 간 샤딩
Cluster Autoscaler는 특정 노드 그룹 집합에서 작동하도록 구성할 수 있습니다. 이 기능을 사용하면 각각 다른 노드 그룹 집합에서 작동하도록 구성된 Cluster Autoscaler 인스턴스를 여러 개 배포할 수 있습니다. 이 전략을 사용하면 임의로 많은 수의 노드 그룹을 사용할 수 있으므로 확장성에 비용을 투자할 수 있습니다. 이 방법은 성능 개선을 위한 최후의 수단으로만 사용하는 것이 좋습니다.
Cluster Autoscaler는 원래 이 구성용으로 설계되지 않았으므로 몇 가지 부작용이 있습니다. 샤드(독립적으로 운영되는 노드 그룹)는 서로 통신하지 않기 때문에 여러 오토스케일러에서 동시에 스케줄링할 수 없는 파드를 스케줄링하려고 시도할 수 있습니다. 이로 인해 여러 노드 그룹이 불필요하게 확장될 수 있습니다. 이런 추가 노드는 `scale-down-delay` 이후 다시 축소됩니다.
```
metadata:
name: cluster-autoscaler
namespace: cluster-autoscaler-1
...
--nodes=1:10:k8s-worker-asg-1
--nodes=1:10:k8s-worker-asg-2
---
metadata:
name: cluster-autoscaler
namespace: cluster-autoscaler-2
...
--nodes=1:10:k8s-worker-asg-3
--nodes=1:10:k8s-worker-asg-4
```
다음을 확인하십시오.
* 각 샤드는 고유한 EC2 Auto Scaling 그룹 세트를 가리키도록 구성되어 있습니다.
* 리더 선출 충돌을 방지하기 위해 각 샤드는 별도의 네임스페이스에 배포됩니다.
## 비용 및 가용성 최적화
### 스팟 인스턴스
노드 그룹에서 스팟 인스턴스를 사용하면 온디맨드 요금에서 최대 90% 까지 절약할 수 있습니다. 반면 EC2에서 용량을 다시 필요로 하는 경우 언제든지 스팟 인스턴스를 중단할 수 있습니다. 사용 가능한 용량이 부족하여 EC2 Auto Scaling 그룹을 확장할 수 없는 경우 용량 부족 오류가 발생합니다. 여러 인스턴스 패밀리를 선택하여 다양성을 극대화하면 많은 스팟 용량 풀을 활용하여 원하는 규모를 달성할 가능성이 높아지고 스팟 인스턴스 중단이 클러스터 가용성에 미치는 영향을 줄일 수 있습니다. 스팟 인스턴스를 사용한 혼합 인스턴스 정책은 노드 그룹 수를 늘리지 않고도 다양성을 높일 수 있는 좋은 방법입니다. 보장된 리소스가 필요한 경우 스팟 인스턴스 대신 온디맨드 인스턴스를 사용하세요.
혼합 인스턴스 정책을 구성할 때는 모든 인스턴스 유형의 리소스 용량이 비슷해야 합니다. 오토스케일러의 스케줄링 시뮬레이터는 혼합 인스턴스 정책의 첫 번째 인스턴스 유형을 사용합니다. 후속 인스턴스 유형이 더 크면 확장 후 리소스가 낭비될 수 있습니다. 크기가 작으면 용량 부족으로 인해 파드가 새 인스턴스를 스케쥴되지 못할 수 있습니다. 예를 들어 M4, M5, M5a 및 M5n 인스턴스는 모두 비슷한 양의 CPU와 메모리를 가지고 있으며 혼합 인스턴스 정책을 적용하기에 적합합니다.[EC2 Instance Selector](https://github.com/aws/amazon-ec2-instance-selector) 도구를 사용하면 유사한 인스턴스 유형을 식별할 수 있습니다.
![](./spot_mix_instance_policy.jpg)
온디맨드 및 스팟 용량을 별도의 EC2 Auto Scaling 그룹으로 분리하는 것이 좋습니다. 스케줄링 속성이 근본적으로 다르기 때문에 [기본 용량 전략](https://docs.aws.amazon.com/autoscaling/ec2/userguide/asg-purchase-options.html#asg-instances-distribution)을 사용하는 것보다 이 방법을 사용하는 것이 좋습니다. 스팟 인스턴스는 (EC2에서 용량을 다시 확보해야 할 때) 언제든지 중단되므로 사용자는 명환한 선점 동작을 위해 선점 가능한 노드를 테인트시킵니다. 이런 경우에 파드는 명시적인 톨러레이션이 요구됩니다. 이런 테인트로 인해 노드의 스케줄 속성이 달라지므로 여러 EC2 Auto Scaling 그룹으로 분리해야 합니다.
Cluster Autoscaler에는 [Expanders](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#what-are-expanders)라는 개념이 있으며, 확장할 노드 그룹을 선택하기 위한 다양한 전략을 제공합니다.`--expander=least-waste` 전략은 일반적인 용도의 기본 전략으로, 스팟 인스턴스 다양화를 위해 여러 노드 그룹을 사용하려는 경우 (위 이미지 설명 참조) 조정 활동 이후에 가장 잘 활용되는 그룹을 확장하여 노드 그룹의 비용을 더욱 최적화하는 데 도움이 될 수 있습니다.
### 노드 그룹 / ASG 우선 순위 지정
Priority expander를 사용하여 우선순위 기반 오토스케일링을 구성할 수도 있습니다. `--expander=priority`를 사용하면 클러스터가 노드 그룹/ASG의 우선 순위를 지정할 수 있으며, 어떤 이유로든 확장할 수 없는 경우 우선 순위 목록에서 다음 노드 그룹을 선택합니다. 이는 예를 들어, GPU가 워크로드에 최적화된 성능을 제공하기 때문에 P3 인스턴스 유형을 사용하려는 경우에 유용하지만 두 번째 옵션으로 P2 인스턴스 유형을 사용할 수도 있습니다.
```
apiVersion: v1
kind: ConfigMap
metadata:
name: cluster-autoscaler-priority-expander
namespace: kube-system
data:
priorities: |-
10:
- .*p2-node-group.*
50:
- .*p3-node-group.*
```
Cluster Autoscaler는 *p3-node-group*이라는 이름과 일치하는 EC2 Auto Scaling 그룹을 확장하려고 시도합니다. 이 작업이 `--max-node-provision-time` 내에 성공하지 못하면 *p2-node-group*이라는 이름과 일치하는 EC2 Auto Scaling 그룹을 확장하려고 시도합니다.
이 값은 기본적으로 15분으로 설정되며 노드 그룹 선택의 속도를 높이기 위해 줄일 수 있습니다. 하지만 값이 너무 낮으면 불필요한 크기 조정이 발생할 수 있습니다.
### 오버프로비저닝
Cluster Autoscaler는 필요한 경우에만 클러스터에 노드를 추가하고 사용하지 않을 때는 노드를 제거함으로써 비용을 최소화합니다. 이는 많은 파드가 스케줄링되기 전에 노드 확장이 완료될 때까지 기다려야 하기 때문에 배포 지연 시간에 상당한 영향을 미칩니다. 노드를 사용할 수 있게 되기까지 몇 분이 걸릴 수 있으며, 이로 인해 파드 스케줄링 지연 시간이 평소보다 몇 배나 증가할 수 있습니다.
이런 스케줄링 지연은 [오버프로비저닝](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-can-i-configure-overprovisioning-with-cluster-autoscaler)을 사용하면 비용은 증가하나 완화될 수 있습니다. 오버프로비저닝은 클러스터 내 공간을 차지하는 우선 순위가 낮은(보통 음수) 임시 파드를 사용하여 구현됩니다. 새로 생성된 파드를 unschedulable 상태이고 우선 순위가 더 높은 경우, 임시 파드를 선점하여 공간을 확보합니다. 그러면 임시 파드는 unschedulable 상태가 되고 Cluster Autoscaler는 새 노드를 확장하도록 트리거됩니다.
오버프로비저닝으로 얻을 수 있는 또다른 다른 이점도 있습니다. 오버프로비저닝 구성이 안되어 있는 경우 사용률이 높은 클러스터에서는 파드의 `preferredDuringSchedulingIgnoredDuringExecution` 규칙이나 노드 어피니티 규칙으로 인하여 최적의 스케줄링 결정을 내리지 못할 수 있습니다. 이에 대한 일반적인 사용 사례는 AntiAffinity를 사용하여 가용성 영역 간에 가용성이 높은 애플리케이션의 파드를 분리하는 것입니다. 오버프로비저닝은 올바른 영역의 노드를 사용할 수 있는 가능성을 크게 높일 수 있습니다.
얼마나 많은 용량을 오버프로비저닝할 지는 조직 내에서 신중히 결정해야 할 비즈니스 사항입니다. 핵심은 성능과 비용 간의 균형입니다. 이 결정을 내리는 한 가지 방법은 평균적으로 얼마나 자주 오토스케일링되는지 빈도를 계산하고 이 값을 새 노드를 확장하는 데 걸리는 시간으로 나누는 것입니다. 예를 들어 평균적으로 30초마다 새 노드가 필요하고 EC2에서 새 노드를 프로비저닝하는 데 30초가 걸린다면, 단일 노드를 오버프로비저닝하면 항상 추가 노드를 사용할 수 있게 되므로 EC2 인스턴스 하나를 추가하는 데 드는 비용으로 예약 지연 시간을 30초까지 줄일 수 있습니다. 영역 스케줄링 결정을 개선하려면 EC2 Auto Scaling 그룹의 가용영역 수와 동일한 수의 노드를 오버프로비저닝하여 스케줄러가 수신 파드에 가장 적합한 영역을 선택할 수 있도록 하십시오.
### 스케일 다운 축출 방지
일부 워크로드는 제거하는데 비용이 많이 듭니다. 빅데이터 분석, 머신 러닝 작업, 테스트 러너는 결국에는 완료되지만 중단될 경우 다시 시작해야 합니다. Cluster Autoscaler는 scale-down-utilization-threshold 이하로 모든 노드를 축소하려고 시도하며, 이로 인해 노드에 남아 있는 모든 파드가 중단될 수 있습니다. 제거 비용이 많이 드는 파드를 Cluster Autoscaler에서 인식하는 레이블로 보호함으로써 이를 방지할 수 있습니다.
다음을 확인하십시오.
* 파드를 제거하는 데 비용이 많이 드는 코드에는 `cluster-autoscaler.kubernetes.io/safe-to-evict=false`라는 어노케이션이 붙어 있습니다.
## 고급 사용 사례
### EBS 볼륨
영구 스토리지는 데이터베이스 또는 분산 캐시와 같은 스테이트풀(stateful) 애플리케이션을 구축하는 데 매우 중요합니다. [EBS 볼륨](https://aws.amazon.com/premiumsupport/knowledge-center/eks-persistent-storage/)은 쿠버네티스에서 이런 사용 사례를 지원하지만 특정 영역으로 제한됩니다. 각 AZ별로 별도의 EBS 볼륨을 사용하여 여러 AZ에서 샤딩하면 애플리케이션의 가용성이 높아질 수 있습니다. 그러면 Cluster Autoscaler가 EC2 오토스케일링 그룹 스케일링의 균형을 맞출 수 있습니다.
다음을 확인하십시오.
* 노드 그룹 밸런싱은 `balance-similar-node-groups=true`로 설정하여 활성화됩니다.
* 노드 그룹은 가용영역과 EBS 볼륨이 다르다는 점을 제외하면 동일한 설정으로 구성됩니다.
### 공동 스케줄링
머신 러닝 분산 트레이닝 작업은 동일 가용영역에 노드 구성을 통해 레이턴시를 최소화함으로써 상당한 이점을 얻을 수 있습니다. 이런 워크로드는 특정 영역에 여러 개의 파드를 배포합니다. 이는 모든 공동 스케줄링된 파드에 파드 어피니티를 설정하거나 `topologyKey: failure-domain.beta.kubernetes.io/zone`을 사용하여 노드 어피니티를 설정함으로써 구성할 수 있다. 그러면 Cluster Autoscaler가 수요에 맞춰 특정 영역을 확장합니다. 가용영역당 하나씩 여러 EC2 Auto Scaling 그룹을 할당하여 함께 예약된 전체 워크로드에 대해 페일오버를 활성화할 수 있습니다.
다음을 확인하십시오.
* `balance-similar-node-groups=false`를 설정하여 노드 그룹 밸런싱을 구성할 수 있습니다.
* 클러스터가 리전 내 멀티 가용영역 노드 그룹과 단일 가용영역 노드 그룹으로 구성된 경우 [노드 어피니티](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#affinity-and-anti-affinity) 또는 [파드 선점(Preemption)](https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/)을 사용되어야 합니다.
* [노드 어피니티](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#affinity-and-anti-affinity)를 사용하여 멀티 가용영역 파드가 단일 가용영역 노드 그룹에 (또는 그 반대의 경우) 스케쥴링되지 않도록 하여야 합니다.
* 단일 가용영역에 배포되어야 되는 파드가 멀티 가용영역 노드 그룹에 스케줄링되면 멀티 가용영역 파드의 용량 불균형을 초래할 수 있습니다.
* 단일 가용영역 워크로드가 중단 및 재배치를 허용할 수 있는 경우, [Pod Preemption](https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/)을 구성하여 지역적으로 규모가 조정된 파드가 경쟁이 덜한 구역을 선점하고 일정을 조정할 수 있도록 하십시오.
### 가속 하드웨어
일부 클러스터는 GPU와 같은 특수 하드웨어 가속기를 활용합니다. 스케일아웃 시 가속기 장치 플러그인이 리소스를 클러스터에 알리는 데 몇 분 정도 걸릴 수 있습니다. Cluster Autoscaler는 이 노드에 가속기가 있을 것이라고 시뮬레이션했지만, 가속기가 준비되고 노드의 가용 리소스를 업데이트하기 전까지는 노드에서 보류 중인 파드를 스케줄링할 수 없습니다. 이로 인해 [반복적인 불필요한 확장](https://github.com/kubernetes/kubernetes/issues/54959)이 발생할 수 있습니다.
또한 가속기가 있고 CPU 또는 메모리 사용률이 높은 노드는 가속기를 사용하지 않더라도 축소가 고려되지 않습니다. 이 동작은 가속기의 상대적 비용 때문에 비용이 많이 들 수 있습니다. 대신 Cluster Autoscaler는 비어있는 가속기가 있는 경우 노드 축소를 고려하는 특수 규칙을 적용할 수 있습니다.
이런 경우에 올바르게 동작하도록 가속기 노드가 클러스터에 조인하기 전에 해당 노드 kubelet에 레이블을 추가하여 설정할 수 있습니다. Cluster Autoscaler는 이 레이블을 통해 가속기 최적화 동작을 트리거합니다.
다음을 확인하세오.
* GPU 노드용 Kubelet은 `--node-labels k8s.amazonaws.com/accelerator=$ACCELERATOR_TYPE`으로 구성되어 있습니다.
* 가속기가 있는 노드는 위에서 언급한 것과 동일한 스케줄링 속성 규칙을 준수합니다.
### 0부터 스케일링
Cluster Autoscaler(CA)는 노드 그룹을 0까지 또는 0부터 확장할 수 있어 비용을 크게 절감할 수 있습니다. CA는 오토 스케일링 그룹(ASG)의 LaunchConfiguration 또는 LaunchTemplate에 지정된 인스턴스 유형을 검사하여 ASG의 CPU, 메모리 및 GPU 리소스를 파악합니다. 일부 파드는 LaunchConfiguration에서 검색할 수 없는 `WindowsENI`, `PrivateIPv4Address`, NodeSelector 또는 테인트와 같은 추가 리소스가 필요합니다. Cluster Autoscaler는 EC2 ASG의 태그에서 이런 요소를 발견하여 이런 요소를 처리할 수 있습니다. 예를 들면 다음과 같습니다.
```
Key: k8s.io/cluster-autoscaler/node-template/resources/$RESOURCE_NAME
Value: 5
Key: k8s.io/cluster-autoscaler/node-template/label/$LABEL_KEY
Value: $LABEL_VALUE
Key: k8s.io/cluster-autoscaler/node-template/taint/$TAINT_KEY
Value: NoSchedule
```
*참고: 0으로 확장할 경우 용량은 EC2로 반환되며 향후에는 사용할 수 없게 될 수 있습니다.*
## 추가 파라미터
Cluster Autoscaler의 동작과 성능을 조정하는 데 사용할 수 있는 많은 설정 옵션이 있습니다.
파라미터의 전체 목록은 [Github](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#what-are-the-parameters-to-ca)에서 확인할 수 있습니다.
| | | |
|-|-|-|
| 파라미터 | 설명 | Default |
| scan-interval | 클러스터 확장 또는 축소를 위한 재평가 빈도 | 10 초 |
| max-empty-bulk-delete | 동시에 삭제할 수 있는 빈 노드의 최대 수 | 10 |
| scale-down-delay-after-add | 스케일 업 후 스케일 다운 평가가 재개되는 시간 | 10 분 |
| scale-down-delay-after-delete | 노드 삭제 후 스케일 다운 평가가 재개되는 시간, 기본값은 scan-interval | scan-interval |
| scale-down-delay-after-failure | 스케일 다운 실패 후 스케일 다운 평가가 재개되는 기간 | 3 분 |
| scale-down-unneeded-time | 노드를 축소할 수 있으려면 해당 노드가 불필요해야 하는 기간 | 10 분 |
| scale-down-unready-time | 준비되지 않은 노드가 스케일 다운 대상이 되기까지 불필요하게 되는 기간 | 20분 |
| scale-down-utilization-threshold | 노드 사용률 수준, 요청된 리소스의 합계를 용량으로 나눈 값으로 정의되며, 이 수준 이하로 노드를 축소할 수 있음 | 0.5 |
| scale-down-non-empty-candidates-count | 한 번의 반복에서 드레인을 통한 스케일 다운 대상으로 간주되는 비어 있지 않은 최대 노드의 수. 값이 낮을수록 CA 응답성은 향상되지만 스케일 다운 지연 시간은 더 느릴 수 있습니다. 값이 높을수록 대규모 클러스터 (수백 개 노드) 의 CA 성능에 영향을 미칠 수 있습니다.이 휴리스틱을 끄려면 양수가 아닌 값으로 설정하십시오. CA는 고려하는 노드 수를 제한하지 않습니다. | 30 |
| scale-down-candidates-pool-ratio | 이전 반복의 일부 후보가 더 이상 유효하지 않을 때 축소할 수 있는 비어 있지 않은 추가 후보로 간주되는 노드의 비율입니다.값이 낮을수록 CA 응답성은 향상되지만 스케일 다운 지연 시간은 더 느릴 수 있습니다.값이 높을수록 대규모 클러스터 (수백 개 노드) 의 CA 성능에 영향을 미칠 수 있습니다.이 휴리스틱을 끄려면 1.0으로 설정합니다. CA는 모든 노드를 추가 후보로 사용합니다. | 0.1 |
| scale-down-candidates-pool-min-count | 이전 반복의 일부 후보가 더 이상 유효하지 않을 경우 축소할 수 있는 비어 있지 않은 추가 후보로 간주되는 최소 노드 수. 추가 후보의 풀 크기를 계산할 때는 `최대값 (노드수 * scale-down-candidates-pool-ratio, scale-down-candidates-pool-min-count) `으로 계산합니다. | 50 |
## 추가 리소스
이 페이지에는 Cluster Autoscaler 프레젠테이션 및 데모 목록이 들어 있습니다. 여기에 프레젠테이션이나 데모를 추가하려면 풀 리퀘스트를 보내주세요.
| 프레젠테이션 데모 | 발표자 |
| ------------ | ------- |
| [Autoscaling and Cost Optimization on Kubernetes: From 0 to 100](https://sched.co/Zemi) | Guy Templeton, Skyscanner & Jiaxin Shan, Amazon |
| [SIG-Autoscaling Deep Dive](https://youtu.be/odxPyW_rZNQ) | Maciek Pytel & Marcin Wielgus |
## 참고 자료
* [https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md)
* [https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md)
* [https://github.com/aws/amazon-ec2-instance-selector](https://github.com/aws/amazon-ec2-instance-selector)
* [https://github.com/aws/aws-node-termination-handler](https://github.com/aws/aws-node-termination-handler) | eks | search exclude true Cluster Autoscaler iframe width 560 height 315 src https www youtube com embed FIBc8GkjFU0 title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe Cluster Autoscaler https github com kubernetes autoscaler tree master cluster autoscaler SIG https github com kubernetes community tree master sig autoscaling Cluster Autoscaler Cluster Autoscaler AWS EC2 Auto Scaling desireReplicas architecture png Cluster Autoscaler AWS Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler API EC2 Auto Scaling EC2 EC2 Auto Scaling API EC2 EC2 EC2 Cluster Autoscaler Cluster Autoscaler https github com kubernetes autoscaler tree master cluster autoscaler cloudprovider aws examples https en wikipedia org wiki Leader election https docs aws amazon com eks latest userguide cluster autoscaler html Cluster Autoscaler https github com kubernetes autoscaler blob master cluster autoscaler README md releases Auto Discovery https github com kubernetes autoscaler tree master cluster autoscaler cloudprovider aws auto discovery setup IAM Auto Discovery https github com kubernetes autoscaler blob master cluster autoscaler cloudprovider aws README md Auto discovery setup autoscaling SetDesiredCapacity autoscaling TerminateInstanceInAutoScalingGroup node group auto discovery k8s io cluster autoscaler cluster name Cluster Autoscaler json Version 2012 10 17 Statement Effect Allow Action autoscaling SetDesiredCapacity autoscaling TerminateInstanceInAutoScalingGroup Resource Condition StringEquals aws ResourceTag k8s io cluster autoscaler enabled true aws ResourceTag k8s io cluster autoscaler my cluster owned Effect Allow Action autoscaling DescribeAutoScalingGroups autoscaling DescribeAutoScalingInstances autoscaling DescribeLaunchConfigurations autoscaling DescribeScalingActivities autoscaling DescribeTags ec2 DescribeImages ec2 DescribeInstanceTypes ec2 DescribeLaunchTemplateVersions ec2 GetInstanceTypesFromInstanceRequirements eks DescribeNodegroup Resource AWS EC2 Auto Scaling Cluster Autoscaler EC2 Auto Scaling CPU GPU EC2 EKS https docs aws amazon com eks latest userguide managed node groups html EC2 Auto Scaling Cluster Autoscaler 1 000 https github com kubernetes autoscaler blob master cluster autoscaler proposals scalability tests md Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler CPU 1GB Addon Resizer https github com kubernetes autoscaler tree master addon resizer Vertical Pod Autoscaler https github com kubernetes autoscaler tree master vertical pod autoscaler Cluster Autoscaler Kubernetes API Cluster Autoscaler GPU request limit NodeTaints NodeSelector EC2 Auto Scaling 10 Cluster Autoscaler API EC2 Auto Scaling EKS API API API Kubernetes 10 AWS 2 1 API 6 38 Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler scale down delay metadata name cluster autoscaler namespace cluster autoscaler 1 nodes 1 10 k8s worker asg 1 nodes 1 10 k8s worker asg 2 metadata name cluster autoscaler namespace cluster autoscaler 2 nodes 1 10 k8s worker asg 3 nodes 1 10 k8s worker asg 4 EC2 Auto Scaling 90 EC2 EC2 Auto Scaling M4 M5 M5a M5n CPU EC2 Instance Selector https github com aws amazon ec2 instance selector spot mix instance policy jpg EC2 Auto Scaling https docs aws amazon com autoscaling ec2 userguide asg purchase options html asg instances distribution EC2 EC2 Auto Scaling Cluster Autoscaler Expanders https github com kubernetes autoscaler blob master cluster autoscaler FAQ md what are expanders expander least waste ASG Priority expander expander priority ASG GPU P3 P2 apiVersion v1 kind ConfigMap metadata name cluster autoscaler priority expander namespace kube system data priorities 10 p2 node group 50 p3 node group Cluster Autoscaler p3 node group EC2 Auto Scaling max node provision time p2 node group EC2 Auto Scaling 15 Cluster Autoscaler https github com kubernetes autoscaler blob master cluster autoscaler FAQ md how can i configure overprovisioning with cluster autoscaler unschedulable unschedulable Cluster Autoscaler preferredDuringSchedulingIgnoredDuringExecution AntiAffinity 30 EC2 30 EC2 30 EC2 Auto Scaling Cluster Autoscaler scale down utilization threshold Cluster Autoscaler cluster autoscaler kubernetes io safe to evict false EBS stateful EBS https aws amazon com premiumsupport knowledge center eks persistent storage AZ EBS AZ Cluster Autoscaler EC2 balance similar node groups true EBS topologyKey failure domain beta kubernetes io zone Cluster Autoscaler EC2 Auto Scaling balance similar node groups false https kubernetes io docs concepts scheduling eviction assign pod node affinity and anti affinity Preemption https kubernetes io docs concepts configuration pod priority preemption https kubernetes io docs concepts scheduling eviction assign pod node affinity and anti affinity Pod Preemption https kubernetes io docs concepts configuration pod priority preemption GPU Cluster Autoscaler https github com kubernetes kubernetes issues 54959 CPU Cluster Autoscaler kubelet Cluster Autoscaler GPU Kubelet node labels k8s amazonaws com accelerator ACCELERATOR TYPE 0 Cluster Autoscaler CA 0 0 CA ASG LaunchConfiguration LaunchTemplate ASG CPU GPU LaunchConfiguration WindowsENI PrivateIPv4Address NodeSelector Cluster Autoscaler EC2 ASG Key k8s io cluster autoscaler node template resources RESOURCE NAME Value 5 Key k8s io cluster autoscaler node template label LABEL KEY Value LABEL VALUE Key k8s io cluster autoscaler node template taint TAINT KEY Value NoSchedule 0 EC2 Cluster Autoscaler Github https github com kubernetes autoscaler blob master cluster autoscaler FAQ md what are the parameters to ca Default scan interval 10 max empty bulk delete 10 scale down delay after add 10 scale down delay after delete scan interval scan interval scale down delay after failure 3 scale down unneeded time 10 scale down unready time 20 scale down utilization threshold 0 5 scale down non empty candidates count CA CA CA 30 scale down candidates pool ratio CA CA 1 0 CA 0 1 scale down candidates pool min count scale down candidates pool ratio scale down candidates pool min count 50 Cluster Autoscaler Autoscaling and Cost Optimization on Kubernetes From 0 to 100 https sched co Zemi Guy Templeton Skyscanner Jiaxin Shan Amazon SIG Autoscaling Deep Dive https youtu be odxPyW rZNQ Maciek Pytel Marcin Wielgus https github com kubernetes autoscaler blob master cluster autoscaler FAQ md https github com kubernetes autoscaler blob master cluster autoscaler FAQ md https github com kubernetes autoscaler blob master cluster autoscaler cloudprovider aws README md https github com kubernetes autoscaler blob master cluster autoscaler cloudprovider aws README md https github com aws amazon ec2 instance selector https github com aws amazon ec2 instance selector https github com aws aws node termination handler https github com aws aws node termination handler |
eks exclude true API search | ---
search:
exclude: true
---
# 워크로드
워크로드는 클러스터를 확장할 수 있는 규모에 영향을 미칩니다. 쿠버네티스 API를 많이 사용하는 워크로드는 단일 클러스터에서 보유할 수 있는 워크로드의 총량을 제한하지만, 부하를 줄이기 위해 변경할 수 있는 몇 가지 기본값이 있습니다.
쿠버네티스 클러스터의 워크로드는 쿠버네티스 API와 통합되는 기능(예: Secrets 및 ServiceAccount)에 액세스할 수 있지만, 이런 기능이 항상 필요한 것은 아니므로 사용하지 않는 경우 비활성화해야 합니다.워크로드 액세스와 쿠버네티스 컨트롤 플레인에 대한 종속성을 제한하면 클러스터에서 실행할 수 있는 워크로드 수가 증가하고 워크로드에 대한 불필요한 액세스를 제거하고 최소 권한 관행을 구현하여 클러스터의 보안을 개선할 수 있습니다. 자세한 내용은 [보안 모범 사례](https://aws.github.io/aws-eks-best-practices/security/docs/)를 참고하세요.
## 파드 네트워킹에 IPv6 사용하기
VPC를 IPv4에서 IPv6으로 전환할 수 없으므로 클러스터를 프로비저닝하기 전에 IPv6를 활성화하는 것이 중요합니다. 다만 VPC에서 IPv6를 활성화한다고 해서 반드시 사용해야 하는 것은 아니며, 파드 및 서비스가 IPv6를 사용하는 경우에도 IPv4 주소를 오가는 트래픽을 라우팅할 수 있습니다. 자세한 내용은 [EKS 네트워킹 모범 사례](https://aws.github.io/aws-eks-best-practices/networking/index/)를 참고하세요.
[클러스터에서 IPv6 사용하기 튜토리얼](https://docs.aws.amazon.com/eks/latest/userguide/cni-ipv6.html)를 사용하면 가장 일반적인 클러스터 및 워크로드 확장 제한을 피할 수 있습니다. IPv6는 사용 가능한 IP 주소가 없어 파드와 노드를 생성할 수 없는 IP 주소 고갈을 방지합니다. 또한 노드당 ENI 어태치먼트 수를 줄여 파드가 IP 주소를 더 빠르게 수신하므로 노드당 성능도 개선되었습니다. [VPC CNI의 IPv4 Prefix 모드](https://aws.github.io/aws-eks-best-practices/networking/prefix-mode/)를 사용하여 유사한 노드 성능을 얻을 수 있지만, 여전히 VPC에서 사용할 수 있는 IP 주소가 충분한지 확인해야 합니다.
## 네임스페이스당 서비스 수 제한
[네임스페이스의 최대 서비스 수는 5,000개이고 클러스터의 최대 서비스 수는 10,000개](https://github.com/kubernetes/community/blob/master/sig-scalability/configs-and-limits/thresholds.md) 입니다. 워크로드와 서비스를 구성하고, 성능을 높이고, 네임스페이스 범위 리소스가 연쇄적으로 영향을 받지 않도록 하려면 네임스페이스당 서비스 수를 500개로 제한하는 것이 좋습니다.
kube-proxy를 사용하여 노드당 생성되는 IP 테이블 규칙의 수는 클러스터의 총 서비스 수에 따라 증가합니다.수천 개의 IP 테이블 규칙을 생성하고 이런 규칙을 통해 패킷을 라우팅하면 노드의 성능이 저하되고 네트워크 지연 시간이 늘어납니다.
네임스페이스당 서비스 수가 500개 미만인 경우 단일 애플리케이션 환경을 포함하는 쿠버네티스 네임스페이스를 생성하십시오. 이렇게 하면 서비스 검색 제한을 피할 수 있을 만큼 서비스 검색 크기가 작아지고 서비스 이름 충돌을 방지하는 데도 도움이 됩니다. 애플리케이션 환경(예: dev, test, prod) 은 네임스페이스 대신 별도의 EKS 클러스터를 사용해야 합니다.
## Elastic Load Balancer 할당량 이해
서비스를 생성할 때 사용할 로드 밸런싱 유형(예: 네트워크 로드밸런서 (NLB) 또는 애플리케이션 로드밸런서 (ALB)) 를 고려하세요. 각 로드밸런서 유형은 서로 다른 기능을 제공하며 [할당량](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-limits.html)이 다릅니다. 기본 할당량 중 일부는 조정할 수 있지만 일부 할당량 최대값은 변경할 수 없습니다. 계정 할당량 및 사용량을 보려면 AWS 콘솔의 [서비스 할당량 대시보드](http://console.aws.amazon.com/servicequotas)를 참조하십시오.
예를 들어, 기본 ALB 목표는 1000입니다. 엔드포인트가 1,000개가 넘는 서비스가 있는 경우 할당량을 늘리거나 서비스를 여러 ALB로 분할하거나 쿠버네티스 인그레스(Ingress)를 사용해야 합니다. 기본 NLB 대상은 3000이지만 AZ당 500개 대상으로 제한됩니다. 클러스터에서 NLB 서비스에 대해 500개 이상의 파드를 실행하는 경우 여러 AZ를 사용하거나 할당량 한도 증가를 요청해야 합니다.
서비스에 연결된 로드밸런서를 사용하는 대신 [인그레스 컨트롤러](https://kubernetes.io/docs/concepts/services-networking/ingress-controllers/) 를 사용할 수 있습니다. AWS Load Balancer Controller는 수신 리소스용 ALB를 생성할 수 있지만, 클러스터에서 전용 컨트롤러를 실행하는 것도 고려해 볼 수 있습니다.클러스터 내 수신 컨트롤러를 사용하면 클러스터 내에서 역방향 프록시를 실행하여 단일 로드밸런서에서 여러 쿠버네티스 서비스를 노출할 수 있습니다. 컨트롤러는 [Gateway API](https://gateway-api.sigs.k8s.io/) 지원과 같은 다양한 기능을 제공하므로 워크로드의 수와 규모에 따라 이점이 있을 수 있습니다.
## Route 53, Global Accelerator, 또는 CloudFront 사용하기
여러 로드밸런서를 사용하는 서비스를 단일 엔드포인트로 사용하려면 [Amazon CloudFront](https://aws.amazon.com/cloudfront/), [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) 또는 [Amazon Route 53](https://aws.amazon.com/route53/)를 사용하여 모든 로드밸런서를 단일 고객 대상 엔드포인트로 노출해야 합니다. 각 옵션에는 서로 다른 이점이 있으며 필요에 따라 개별적으로 또는 함께 사용할 수 있습니다.
Route 53은 공통 이름으로 여러 로드밸런서를 노출할 수 있으며 할당된 가중치에 따라 각 로드밸런서에 트래픽을 전송할 수 있습니다. [DNS 가중치](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/resource-record-sets-values-weighted.html#rrsets-values-weighted-weight)설명서에 자세한 내용을 확인할 수 있으며 [쿠버네티스 외부 DNS 컨트롤러](https://github.com/kubernetes-sigs/external-dns)를 사용하여 이를 구현하는 방법은 [AWS Load Balancer Controller 설명서](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/guide/integrations/external_dns/#usage)에서 확인할 수 있습니다.
Global Accelerator터는 요청 IP 주소를 기반으로 가장 가까운 지역으로 워크로드를 라우팅할 수 있습니다. 이는 여러 지역에 배포되는 워크로드에 유용할 수 있지만 단일 지역의 단일 클러스터로의 라우팅을 개선하지는 않습니다. Route 53을 Global Accelerator터와 함께 사용하면 가용영역을 사용할 수 없는 경우 상태 점검 및 자동 장애 조치와 같은 추가적인 이점이 있습니다. Route 53과 함께 Global Accelerator터를 사용하는 예는 [이 블로그 게시물](https://aws.amazon.com/blogs/containers/operating-a-multi-regional-stateless-application-using-amazon-eks/)에서 확인할 수 있습니다.
CloudFront는 Route 53 및 Global Accelerator와 함께 사용하거나 단독으로 트래픽을 여러 목적지로 라우팅하는 데 사용할 수 있습니다. CloudFront는 오리진 소스에서 제공되는 자산을 캐시하므로 제공하는 대상에 따라 대역폭 요구 사항을 줄일 수 있습니다.
## 엔드포인트(Endpoints) 대신에 엔드포인트 슬라이스(EndpointSlices) 사용하기
서비스 레이블과 일치하는 파드를 발견할 때는 엔드포인트 대신 [엔드포인트 슬라이스](https://kubernetes.io/docs/concepts/services-networking/endpoint-slices/)를 사용해야 합니다. 엔드포인트는 서비스를 소규모로 노출할 수 있는 간단한 방법이었지만, 대규모 서비스가 자동으로 확장되거나 업데이트되면 쿠버네티스 컨트롤 플레인에서 많은 트래픽이 발생합니다. 엔드포인트슬라이스에는 토폴로지 인식 힌트와 같은 기능을 사용할 수 있는 자동 그룹화 기능이 있습니다.
모든 컨트롤러가 기본적으로 엔드포인트슬라이스를 사용하는 것은 아닙니다. 컨트롤러 설정을 확인하고 필요한 경우 활성화해야 합니다. [AWS Load Balancer Controller](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/deploy/configurations/#controller-command-line-flags)의 경우 엔드포인트슬라이스를 사용하려면 `--enable-endpoint-slices` 선택적 플래그를 활성화해야 합니다.
## 가능하다면 변경 불가(immutable)하고 외부(external) 시크릿 사용하기
kubelet은 해당 노드의 파드에 대한 볼륨에서 사용되는 시크릿의 현재 키와 값을 캐시에 보관한다. kubelet은 시크릿을 감시하여 변경 사항을 탐지합니다. 클러스터가 확장됨에 따라 시계의 수가 증가하면 API 서버 성능에 부정적인 영향을 미칠 수 있습니다.
시크릿의 감시 수를 줄이는 두 가지 전략이 있습니다.
* 쿠버네티스 리소스에 액세스할 필요가 없는 애플리케이션의 경우 AutoMountServiceAccountToken: false를 설정하여 서비스 어카운트 시크릿 자동 탑재를 비활성화할 수 있습니다.
* 애플리케이션 암호가 정적이어서 향후 수정되지 않을 경우 [암호를 변경 불가능](https://kubernetes.io/docs/concepts/configuration/secret/#secret-immutable)으로 표시하십시오. kubelet은 변경 불가능한 비밀에 대한 API 감시 기능을 유지하지 않습니다.
서비스 어카운트을 파드에 자동으로 마운트하는 것을 비활성화하려면 워크로드에서 다음 설정을 사용할 수 있습니다. 특정 워크로드에 서비스 어카운트이 필요한 경우 이런 설정을 재정의할 수 있습니다.
```
apiVersion: v1
kind: ServiceAccount
metadata:
name: app
automountServiceAccountToken: true
```
클러스터의 암호 수가 제한인 10,000개를 초과하기 전에 모니터링하세요. 다음 명령을 사용하여 클러스터의 총 암호 수를 확인할 수 있습니다. 클러스터 모니터링 도구를 통해 이 한도를 모니터링해야 합니다.
```
kubectl get secrets -A | wc -l
```
이 한도에 도달하기 전에 클러스터 관리자에게 알리도록 모니터링을 설정해야 합니다.[Secrets Store CSI 드라이버](https://secrets-store-csi-driver.sigs.k8s.io/)와 함께 [AWS Key Management Service (AWS KMS)](https://aws.amazon.com/kms/) 또는 [Hashicorp Vault](https://www.vaultproject.io/)와 같은 외부 비밀 관리 옵션을 사용하는 것을 고려해 보십시오.
## 배포 이력 제한
클러스터에서 이전 객체가 계속 추적되므로 파드를 생성, 업데이트 또는 삭제할 때 속도가 느려질 수 있습니다. [디플로이먼트](https://kubernetes.io/docs/concepts/workloads/controllers/deployment/#clean-up-policy)의 `therevisionHistoryLimit`을 줄이면 구형 레플리카셋을 정리하여 쿠버네티스 컨트롤러 매니저가 추적하는 오브젝트의 총량을 줄일 수 있습니다. 디플로이먼트의 기본 기록 한도는 10개입니다.
클러스터가 CronJobs나 다른 메커니즘을 통해 많은 수의 작업 개체를 생성하는 경우, [`TTLSecondsFinished` 설정](https://kubernetes.io/docs/concepts/workloads/controllers/ttlafterfinished/)을 사용하여 클러스터의 오래된 파드를 자동으로 정리해야 합니다. 이렇게 하면 지정된 시간이 지나면 성공적으로 실행된 작업이 작업 기록에서 제거됩니다.
## enableServiceLinks를 기본으로 비활성화하기
파드가 노드에서 실행될 때, kubelet은 각 활성 서비스에 대한 환경 변수 세트를 추가합니다. 리눅스 프로세스에는 환경에 맞는 최대 크기가 있으며 네임스페이스에 서비스가 너무 많으면 이 크기에 도달할 수 있습니다. 네임스페이스당 서비스 수는 5,000개를 초과할 수 없습니다. 그 이후에는 서비스 환경 변수 수가 셸 한도를 초과하여 시작 시 파드가 크래시를 일으키게 됩니다.
파드가 서비스 검색에 서비스 환경 변수를 사용하지 않아야 하는 다른 이유도 있습니다. 환경 변수 이름 충돌, 서비스 이름 유출, 전체 환경 크기 등이 있습니다. 서비스 엔드포인트를 검색하려면 CoreDNS를 사용해야 합니다.
## 리소스당 동적 어드미션 웹훅(Webhook) 제한하기
[Dynamic Admission Webhooks](https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers/)에는 어드미션 웹훅과 뮤테이팅(Mutating) 웹훅이 포함됩니다. 쿠버네티스 컨트롤 플레인에 속하지 않는 API 엔드포인트로, 리소스가 쿠버네티스 API로 전송될 때 순서대로 호출됩니다. 각 웹훅의 기본 제한 시간은 10초이며, 웹훅이 여러 개 있거나 제한 시간이 초과된 경우 API 요청에 걸리는 시간이 늘어날 수 있습니다.
특히 가용영역 장애 발생 시 웹훅의 가용성이 높은지 확인하고 [FailurePolicy](https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers/#failure-policy)가 리소스를 거부하거나 실패를 무시하도록 적절하게 설정되어 있는지 확인하세요. --dry-run kubectl 명령이 웹훅을 우회하도록 허용하여 필요하지 않을 때는 웹훅을 호출하지 마십시오.
```
apiVersion: admission.k8s.io/v1
kind: AdmissionReview
request:
dryRun: False
```
웹훅를 변경하면 리소스를 자주 연속적으로 수정할 수 있습니다. 뮤테이팅 웹훅이 5개 있고 리소스 50개를 배포하면 수정된 리소스의 이전 버전을 제거하기 위해 5분마다 컴팩션이 실행될 때까지 etcd는 각 리소스의 모든 버전을 저장합니다. 이 시나리오에서 etcd가 대체된 리소스를 제거하면 etcd에서 200개의 리소스 버전이 제거되며 리소스 크기에 따라 15분마다 조각 모음이 실행될 때까지 etcd 호스트에서 상당한 공간을 사용할 수 있습니다.
이런 조각 모음(defragmentation)으로 인해 etcd가 일시 중지되어 쿠버네티스 API 및 컨트롤러에 다른 영향을 미칠 수 있습니다. 대규모 리소스를 자주 수정하거나 수백 개의 리소스를 순식간에 연속해서 수정하는 것은 피해야 합니다. | eks | search exclude true API API Secrets ServiceAccount https aws github io aws eks best practices security docs IPv6 VPC IPv4 IPv6 IPv6 VPC IPv6 IPv6 IPv4 EKS https aws github io aws eks best practices networking index IPv6 https docs aws amazon com eks latest userguide cni ipv6 html IPv6 IP IP ENI IP VPC CNI IPv4 Prefix https aws github io aws eks best practices networking prefix mode VPC IP 5 000 10 000 https github com kubernetes community blob master sig scalability configs and limits thresholds md 500 kube proxy IP IP 500 dev test prod EKS Elastic Load Balancer NLB ALB https docs aws amazon com elasticloadbalancing latest application load balancer limits html AWS http console aws amazon com servicequotas ALB 1000 1 000 ALB Ingress NLB 3000 AZ 500 NLB 500 AZ https kubernetes io docs concepts services networking ingress controllers AWS Load Balancer Controller ALB Gateway API https gateway api sigs k8s io Route 53 Global Accelerator CloudFront Amazon CloudFront https aws amazon com cloudfront AWS Global Accelerator https aws amazon com global accelerator Amazon Route 53 https aws amazon com route53 Route 53 DNS https docs aws amazon com Route53 latest DeveloperGuide resource record sets values weighted html rrsets values weighted weight DNS https github com kubernetes sigs external dns AWS Load Balancer Controller https kubernetes sigs github io aws load balancer controller v2 4 guide integrations external dns usage Global Accelerator IP Route 53 Global Accelerator Route 53 Global Accelerator https aws amazon com blogs containers operating a multi regional stateless application using amazon eks CloudFront Route 53 Global Accelerator CloudFront Endpoints EndpointSlices https kubernetes io docs concepts services networking endpoint slices AWS Load Balancer Controller https kubernetes sigs github io aws load balancer controller v2 4 deploy configurations controller command line flags enable endpoint slices immutable external kubelet kubelet API AutoMountServiceAccountToken false https kubernetes io docs concepts configuration secret secret immutable kubelet API apiVersion v1 kind ServiceAccount metadata name app automountServiceAccountToken true 10 000 kubectl get secrets A wc l Secrets Store CSI https secrets store csi driver sigs k8s io AWS Key Management Service AWS KMS https aws amazon com kms Hashicorp Vault https www vaultproject io https kubernetes io docs concepts workloads controllers deployment clean up policy therevisionHistoryLimit 10 CronJobs TTLSecondsFinished https kubernetes io docs concepts workloads controllers ttlafterfinished enableServiceLinks kubelet 5 000 CoreDNS Webhook Dynamic Admission Webhooks https kubernetes io docs reference access authn authz extensible admission controllers Mutating API API 10 API FailurePolicy https kubernetes io docs reference access authn authz extensible admission controllers failure policy dry run kubectl apiVersion admission k8s io v1 kind AdmissionReview request dryRun False 5 50 5 etcd etcd etcd 200 15 etcd defragmentation etcd API |
eks SLO search Amazon EKS EKS SLO SLI Service Level Indicator SLO Service Level Objective exclude true | ---
search:
exclude: true
---
# 쿠버네티스 업스트림 SLO
Amazon EKS는 업스트림 쿠버네티스 릴리스와 동일한 코드를 실행하고 EKS 클러스터가 쿠버네티스 커뮤니티에서 정의한 SLO 내에서 작동하도록 합니다. 쿠버네티스 [확장성 SIG](https://github.com/kubernetes/community/tree/master/sig-scalability)는 확장성 목표를 정의하고, 정의된 SLI(Service Level Indicator)와 SLO(Service Level Objective)를 통해 성능 병목 현상을 조사합니다.
SLI는 시스템이 얼마나 “잘” 실행되고 있는지 판단하는 데 사용할 수 있는 메트릭이나 측정값과 같이 시스템을 측정하는 방법(예: 요청 지연 시간 또는 개수)입니다. SLO는 시스템이 '정상' 실행될 때 예상되는 값을 정의합니다. 예를 들어 요청 지연 시간이 3초 미만으로 유지됩니다. 쿠버네티스 SLO와 SLI는 쿠버네티스 구성 요소의 성능에 초점을 맞추고 EKS 클러스터 엔드포인트의 가용성에 초점을 맞춘 Amazon EKS 서비스 SLA와는 완전히 독립적입니다.
쿠버네티스는 사용자가 CSI 드라이버, 어드미션 웹훅, 자동 스케일러와 같은 커스텀 애드온 또는 드라이버로 시스템을 확장할 수 있는 많은 기능을 제공합니다. 이러한 확장은 다양한 방식으로 쿠버네티스 클러스터의 성능에 큰 영향을 미칠 수 있다. 예를 들어 `FailurePolicy=Ignore`가 포함된 어드미션 웹훅은 웹훅 타겟을 사용할 수 없는 경우 K8s API 요청에 지연 시간을 추가할 수 있다. 쿠버네티스 확장성 SIG는 ["you promise, we promise" 프레임워크](https://github.com/kubernetes/community/blob/master/sig-scalability/slos/slos.md#how-we-define-scalability)를 사용하여 확장성을 정의합니다.
> 사용자가 다음과 같이 약속하는 경우 (`You promise`):
> - 클러스터를 올바르게 구성하세요
> - 확장성 기능을 “합리적으로” 사용
> - 클러스터의 부하를 [권장 리밋](https://github.com/kubernetes/community/blob/master/sig-scalability/configs-and-limits/thresholds.md) 이내로 유지
>
> 그러면 클러스터가 확장될 것을 약속합니다. (`We promise`):
> - 모든 SLO가 만족합니다.
# 쿠버네티스 SLO
쿠버네티스 SLO는 워커 노드 스케일링이나 어드미션 웹훅과 같이 클러스터에 영향을 미칠 수 있는 모든 플러그인과 외부 제한을 고려하지 않습니다. 이러한 SLO는 [쿠버네티스 컴포넌트](https://kubernetes.io/docs/concepts/overview/components/)에 초점을 맞추고 쿠버네티스 액션과 리소스가 기대 범위 내에서 작동하도록 합니다. SLO는 쿠버네티스 개발자가 쿠버네티스 코드를 변경해도 전체 시스템의 성능이 저하되지 않도록 하는 데 도움이 됩니다.
[쿠버네티스 확장성 SIG는 다음과 같은 공식 SLO/SLI를 정의합니다](https://github.com/kubernetes/community/blob/master/sig-scalability/slos/slos.md). Amazon EKS 팀은 이러한 SLO/SLI에 대해 EKS 클러스터에서 정기적으로 확장성 테스트를 실행하여 변경 및 새 버전 출시에 따른 성능 저하를 모니터링합니다.
|Objective |Definition |SLO |
|--- |--- |--- |
|API request latency (mutating) |모든 (리소스, 동사) 쌍의 단일 객체에 대한 변경 API 호출 처리 지연 (지난 5분 동안 백분위 99로 측정) |기본 Kubernetes 설치에서 모든 (리소스, 동사) 쌍에 대해 (가상 및 집계 리소스 정의 제외), 클러스터당 백분위 99 <= 1초 |
|API request latency (read-only) |모든 (리소스, 범위) 쌍에 대한 비스트리밍 읽기 전용 API 호출 처리 대기 시간 (지난 5분 동안 백분위 99로 측정) |기본 Kubernetes 설치에서 모든 (리소스, 범위) 쌍에 대해 (가상 및 집계 리소스 및 사용자 지정 리소스 정의 제외), 클러스터당 백분위 99: (a) <= `scope=resource`인 경우 1초 (b) << = 30초 (`scope=namespace` 또는 `scope=cluster`인 경우) |
|Pod startup latency | 예약 가능한 상태 비저장 파드의 시작 지연 시간 (이미지를 가져오고 초기화 컨테이너를 실행하는 데 걸리는 시간 제외), 파드 생성 타임스탬프부터 모든 컨테이너가 시작 및 시계를 통해 관찰된 것으로 보고되는 시점까지 측정 (지난 5분 동안 백분위 99로 측정) |기본 쿠버네티스 설치에서 클러스터당 백분위 99 <= 5초 |
<!-- |Objective |Definition |SLO |
|--- |--- |--- |
|API request latency (mutating) |Latency of processing mutating API calls for single objects for every (resource, verb) pair, measured as 99th percentile over last 5 minutes |In default Kubernetes installation, for every (resource, verb) pair, excluding virtual and aggregated resources and Custom Resource Definitions, 99th percentile per cluster-day <= 1s |
|API request latency (read-only) |Latency of processing non-streaming read-only API calls for every (resource, scope) pair, measured as 99th percentile over last 5 minutes |In default Kubernetes installation, for every (resource, scope) pair, excluding virtual and aggregated resources and Custom Resource Definitions, 99th percentile per cluster-day: (a) <= 1s if `scope=resource` (b) <= 30s otherwise (if `scope=namespace` or `scope=cluster`) |
|Pod startup latency |Startup latency of schedulable stateless pods, excluding time to pull images and run init containers, measured from pod creation timestamp to when all its containers are reported as started and observed via watch, measured as 99th percentile over last 5 minutes |In default Kubernetes installation, 99th percentile per cluster-day <= 5s | -->
### API 요청 지연 시간
`kube-apiserver`에는 기본적으로 `--request-timeout`이 `1m0s`로 정의되어 있습니다. 즉, 요청을 최대 1분 (60초) 동안 실행한 후 제한 시간을 초과하여 취소할 수 있습니다. 지연 시간에 대해 정의된 SLO는 실행 중인 요청 유형별로 구분되며, 변경되거나 읽기 전용일 수 있습니다.
#### 뮤테이팅 (Mutating)
쿠버네티스에서 요청을 변경하면 생성, 삭제 또는 업데이트와 같은 리소스가 변경됩니다. 이러한 요청은 업데이트된 오브젝트가 반환되기 전에 변경 사항을 [etcd 백엔드](https://kubernetes.io/docs/concepts/overview/components/#etcd)에 기록해야 하기 때문에 비용이 많이 든다. [Etcd](https://etcd.io/)는 모든 쿠버네티스 클러스터 데이터에 사용되는 분산 키-밸류 저장소입니다.
이 지연 시간은 쿠버네티스 리소스의 (resource, verb) 쌍에 대한 5분 이상의 99번째 백분위수로 측정됩니다. 예를 들어 이 지연 시간은 파드 생성 요청과 업데이트 노드 요청의 지연 시간을 측정합니다. SLO를 충족하려면 요청 지연 시간이 1초 미만이어야 합니다.
#### 읽기 전용 (read-only)
읽기 전용 요청은 단일 리소스 (예: Pod X 정보 가져오기) 또는 컬렉션 (예: “네임스페이스 X에서 모든 파드 정보 가져오기”) 을 검색한다. `kube-apiserver`는 오브젝트 캐시를 유지하므로 요청된 리소스가 캐시에서 반환될 수도 있고, 먼저 etcd에서 검색해야 할 수도 있다.
이러한 지연 시간은 5분 동안의 99번째 백분위수로도 측정되지만, 읽기 전용 요청은 별도의 범위를 가질 수 있습니다.SLO는 두 가지 다른 목표를 정의합니다.
* *단일* 리소스(예: `kubectl get pod -n mynamespace my-controller-xxx`)에 대한 요청의 경우 요청 지연 시간은 1초 미만으로 유지되어야 합니다.
* 네임스페이스 또는 클러스터의 여러 리소스에 대해 요청한 경우 (예: `kubectl get pods -A`) 지연 시간은 30초 미만으로 유지되어야 합니다.
Kubernetes 리소스 목록에 대한 요청은 요청에 포함된 모든 오브젝트의 세부 정보가 SLO 내에 반환될 것으로 예상하기 때문에 SLO는 요청 범위에 따라 다른 목표 값을 가집니다. 대규모 클러스터 또는 대규모 리소스 컬렉션에서는 응답 크기가 커져 반환하는 데 다소 시간이 걸릴 수 있습니다. 예를 들어 수만 개의 파드를 실행하는 클러스터에서 JSON으로 인코딩할 때 각 파드가 대략 1KiB인 경우 클러스터의 모든 파드를 반환하는 데 10MB 이상이 된다. 쿠버네티스 클라이언트는 이러한 응답 크기를 줄이는 데 도움이 될 수 있다 [APIListChunking을 사용하여 대규모 리소스 컬렉션을 검색](https://kubernetes.io/docs/reference/using-api/api-concepts/#retrieving-large-results-sets-in-chunks).
### 파드 시작 지연
이 SLO는 주로 파드 생성부터 해당 파드의 컨테이너가 실제로 실행을 시작할 때까지 걸리는 시간과 관련이 있다. 이를 측정하기 위해 파드에 기록된 생성 타임스탬프와 [파드 WATCH요청](https://kubernetes.io/docs/reference/using-api/api-concepts/#efficient-detection-of-changes)에서 보고된 컨테이너가 시작된 시점 (컨테이너 이미지 풀링 및 초기화 컨테이너 실행 시간 제외)과의 차이를 계산합니다. SLO를 충족하려면 이 파드 시작 지연 시간의 클러스터 일당 99번째 백분위수를 5초 미만으로 유지해야 한다.
참고로, 이 SLO에서는 워커 노드가 이 클러스터에 이미 존재하며 파드를 스케줄링할 준비가 된 상태인 것으로 가정한다. 이 SLO는 이미지 풀이나 초기화 컨테이너 실행을 고려하지 않으며, 영구 스토리지 플러그인을 활용하지 않는 “스테이트리스(stateless) 파드"로만 테스트를 제한한다.
## 쿠버네티스 SLI 메트릭스
또한 쿠버네티스는 시간이 지남에 따라 이러한 SLI를 추적하는 쿠버네티스 컴포넌트에 [프로메테우스 메트릭](https://prometheus.io/docs/concepts/data_model/)을 추가하여 SLI에 대한 옵저버빌리티를 개선하고 있습니다. [프로메테우스 쿼리 언어 (PromQL)](https://prometheus.io/docs/prometheus/latest/querying/basics/)를 사용하여 Prometheus 또는 Grafana 대시보드와 같은 도구에서 시간 경과에 따른 SLI 성능을 표시하는 쿼리를 작성할 수 있습니다. 아래는 위의 SLO에 대한 몇 가지 예입니다.
### API 서버 요청 레이턴시
|Metric |Definition |
|--- |--- |
|apiserver_request_sli_duration_seconds | 각 verb, 그룹, 버전, 리소스, 하위 리소스, 범위 및 구성 요소에 대한 응답 지연 시간 분포 (웹훅 지속 시간, 우선 순위 및 공정성 대기열 대기 시간 제외) |
|apiserver_request_duration_seconds | 각 verb, 테스트 실행 값, 그룹, 버전, 리소스, 하위 리소스, 범위 및 구성 요소에 대한 응답 지연 시간 분포 (초) |
*참고: `apiserver_request_sli_duration_seconds` 메트릭은 쿠버네티스 1.27 버전부터 사용할 수 있다.*
이러한 메트릭을 사용하여 API 서버 응답 시간과 Kubernetes 구성 요소 또는 기타 플러그인/구성 요소에 병목 현상이 있는지 조사할 수 있습니다. 아래 쿼리는 [커뮤니티 SLO 대시보드](https://github.com/kubernetes/perf-tests/tree/master/clusterloader2/pkg/prometheus/manifests/dashboards)를 기반으로 합니다.
**API 요청 레이턴시 SLI (mutating)** - 해당 시간은 웹훅 실행 또는 대기열 대기 시간을 포함*하지 않습니다*.
`histogram_quantile(0.99, sum(rate(apiserver_request_sli_duration_seconds_bucket{verb=~"CREATE|DELETE|PATCH|POST|PUT", subresource!~"proxy|attach|log|exec|portforward"}[5m])) by (resource, subresource, verb, scope, le)) > 0`
**API 요청 레이턴시 시간 합계 (mutating)** - API 서버에서 요청이 소요된 총 시간입니다. 이 시간은 웹훅 실행, API 우선 순위 및 공정성 대기 시간을 포함하므로 SLI 시간보다 길 수 있습니다.
`histogram_quantile(0.99, sum(rate(apiserver_request_duration_seconds_bucket{verb=~"CREATE|DELETE|PATCH|POST|PUT", subresource!~"proxy|attach|log|exec|portforward"}[5m])) by (resource, subresource, verb, scope, le)) > 0`
이 쿼리에서는 `kubectl port-forward` 또는 `kubectl exec` 요청과 같이 즉시 반환되지 않는 스트리밍 API 요청을 제외합니다. (`subresource!~"proxy|attach|log|exec|portforward"`). 그리고 객체를 수정하는 쿠버네티스 verb에 대해서만 필터링하고 있습니다 (`verb=~"Create|Delete|Patch|Post|put"`).그런 다음 지난 5분 동안의 해당 지연 시간의 99번째 백분위수를 계산합니다.
읽기 전용 API 요청에도 비슷한 쿼리를 사용할 수 있습니다. 필터링 대상 verb에 읽기 전용 작업 `LIST`와 `GET`이 포함되도록 수정하기만 하면 됩니다. 또한 요청 범위(예: 단일 리소스를 가져오거나 여러 리소스를 나열하는 경우)에 따라 SLO 임계값도 다릅니다.
**API 요청 레이턴시 시간 SLI (읽기 전용)** - 이번에는 웹훅 실행 또는 대기열 대기 시간을 포함*하지 않습니다*.
단일 리소스의 경우 (범위=리소스, 임계값=1s)
`histogram_quantile(0.99, sum(rate(apiserver_request_sli_duration_seconds_bucket{verb=~"GET", scope=~"resource"}[5m])) by (resource, subresource, verb, scope, le))`
동일한 네임스페이스에 있는 리소스 컬렉션의 경우 (범위=네임스페이스, 임계값=5s)
`histogram_quantile(0.99, sum(rate(apiserver_request_sli_duration_seconds_bucket{verb=~"LIST", scope=~"namespace"}[5m])) by (resource, subresource, verb, scope, le))`
전체 클러스터의 리소스 컬렉션의 경우 (범위=클러스터, 임계값=30초)
`histogram_quantile(0.99, sum(rate(apiserver_request_sli_duration_seconds_bucket{verb=~"LIST", scope=~"cluster"}[5m])) by (resource, subresource, verb, scope, le))`
**API 요청 레이턴시 시간 합계 (읽기 전용) ** - API 서버에서 요청이 소요된 총 시간입니다. 이 시간은 웹훅 실행 및 대기 시간을 포함하므로 SLI 시간보다 길 수 있습니다.
단일 리소스의 경우 (범위=리소스, 임계값=1초)
`histogram_quantile(0.99, sum(rate(apiserver_request_duration_seconds_bucket{verb=~"GET", scope=~"resource"}[5m])) by (resource, subresource, verb, scope, le))`
동일한 네임스페이스에 있는 리소스 컬렉션의 경우 (범위=네임스페이스, 임계값=5s)
`histogram_quantile(0.99, sum(rate(apiserver_request_duration_seconds_bucket{verb=~"LIST", scope=~"namespace"}[5m])) by (resource, subresource, verb, scope, le))`
전체 클러스터의 리소스 모음의 경우 (범위=클러스터, 임계값=30초)
`histogram_quantile(0.99, sum(rate(apiserver_request_duration_seconds_bucket{verb=~"LIST", scope=~"cluster"}[5m])) by (resource, subresource, verb, scope, le))`
SLI 메트릭은 요청이 API Priority 및 Fairness 대기열에서 대기하거나, 승인 웹훅 또는 기타 쿠버네티스 확장을 통해 작업하는 데 걸리는 시간을 제외함으로써 쿠버네티스 구성 요소의 성능에 대한 통찰력을 제공합니다. 전체 지표는 애플리케이션이 API 서버의 응답을 기다리는 시간을 반영하므로 보다 총체적인 시각을 제공합니다. 이러한 지표를 비교하면 요청 처리 지연이 발생하는 위치를 파악할 수 있습니다.
### 파드 시작 레이턴시
|Metric | Definition |
|--- |--- |
|kubelet_pod_start_sli_duration_seconds |파드를 시작하는 데 걸리는 시간 (초) (이미지를 가져오고 초기화 컨테이너를 실행하는 데 걸리는 시간 제외), 파드 생성 타임스탬프부터 모든 컨테이너가 시계를 통해 시작 및 관찰된 것으로 보고될 때까지의 시간 |
|kubelet_pod_start_duration_seconds |kubelet이 파드를 처음 본 시점부터 파드가 실행되기 시작할 때까지의 시간(초). 여기에는 파드를 스케줄링하거나 워커 노드 용량을 확장하는 시간은 포함되지 않는다. |
*참고: `kubelet_pod_start_sli_duration_seconds`는 쿠버네티스 1.27부터 사용할 수 있다.*
위의 쿼리와 마찬가지로 이러한 메트릭을 사용하여 노드 스케일링, 이미지 풀 및 초기화 컨테이너가 Kubelet 작업과 비교하여 파드 출시를 얼마나 지연시키는지 파악할 수 있습니다.
**파드 시작 레이턴시 시간 SLI -** 이것은 파드 생성부터 애플리케이션 컨테이너가 실행 중인 것으로 보고된 시점까지의 시간입니다. 여기에는 워커 노드 용량을 사용할 수 있고 파드를 스케줄링하는 데 걸리는 시간이 포함되지만, 이미지를 가져오거나 초기화 컨테이너를 실행하는 데 걸리는 시간은 포함되지 않습니다.
`histogram_quantile(0.99, sum(rate(kubelet_pod_start_sli_duration_seconds_bucket[5m])) by (le))`
**파드 시작 레이턴시 시간 합계 -** kubelet이 처음으로 파드를 시작하는 데 걸리는 시간입니다. 이는 kubelet이 WATCH를 통해 파드를 수신한 시점부터 측정되며, 워커 노드 스케일링 또는 스케줄링에 걸리는 시간은 포함되지 않는다. 여기에는 이미지를 가져오고 실행할 컨테이너를 초기화하는 데 걸리는 시간이 포함됩니다.
`histogram_quantile(0.99, sum(rate(kubelet_pod_start_duration_seconds_bucket[5m])) by (le))`
## 클러스터의 SLO
EKS 클러스터의 쿠버네티스 리소스에서 Prometheus 메트릭을 수집하면 쿠버네티스 컨트롤 플레인 구성 요소의 성능에 대한 심층적인 통찰력을 얻을 수 있습니다.
[perf-test repo](https://github.com/kubernetes/perf-tests/)에는 테스트 중 클러스터의 지연 시간 및 중요 성능 메트릭을 표시하는 Grafana 대시보드가 포함되어 있습니다. perf 테스트 구성은 쿠버네티스 메트릭을 수집하도록 구성된 오픈 소스 프로젝트인 [kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack)을 활용하지만 [Amazon Managed Prometheus 및 Amazon Managed Grafana 사용](https://aws-observability.github.io/terraform-aws-observability-accelerator/eks/)도 가능합니다.
`kube-prometheus-stack` 또는 유사한 프로메테우스 솔루션을 사용하는 경우 동일한 대시보드를 설치하여 클러스터의 SLO를 실시간으로 관찰할 수 있습니다.
1. 먼저 `kubectl apply -f prometheus-rules.yaml`로 대시보드에서 사용되는 프로메테우스 규칙을 설치해야 한다. 여기에서 규칙 사본을 다운로드할 수 있습니다: https://github.com/kubernetes/perf-tests/blob/master/clusterloader2/pkg/prometheus/manifests/prometheus-rules.yaml
1. 파일의 네임스페이스가 사용자 환경과 일치하는지 확인하세요.
2. `kube-prometheus-stack`을 사용하는 경우 레이블이 `Prometheus.PrometheusSpec.RuleSelector` 헬름 값과 일치하는지 확인하세요.
2. 그런 다음 Grafana에 대시보드를 설치할 수 있습니다. 이를 생성하는 json 대시보드와 파이썬 스크립트는 다음에서 확인할 수 있습니다: https://github.com/kubernetes/perf-tests/tree/master/clusterloader2/pkg/prometheus/manifests/dashboards
1. [`slo.json` 대시보드](https://github.com/kubernetes/perf-tests/blob/master/clusterloader2/pkg/prometheus/manifests/dashboards/slo.json)는 쿠버네티스 SLO와 관련된 클러스터의 성능을 보여줍니다.
SLO는 클러스터의 Kubernetes 구성 요소 성능에 초점을 맞추고 있지만 클러스터에 대한 다양한 관점이나 통찰력을 제공하는 추가 메트릭을 검토할 수 있습니다. [Kube-State-Metrics](https://github.com/kubernetes/kube-state-metrics/tree/main)와 같은 쿠버네티스 커뮤니티 프로젝트는 클러스터의 추세를 빠르게 분석하는 데 도움이 될 수 있습니다. 쿠버네티스 커뮤니티에서 가장 많이 사용되는 플러그인과 드라이버도 Prometheus 메트릭을 내보내므로 오토스케일러 또는 사용자 지정 스케줄러와 같은 사항을 조사할 수 있습니다.
[옵저버빌리티 모범 사례 가이드](https://aws-observability.github.io/observability-best-practices/guides/containers/oss/eks/best-practices-metrics-collection/#control-plane-metrics)에는 추가 통찰력을 얻는 데 사용할 수 있는 다른 쿠버네티스 메트릭의 예가 나와 있습니다.
| eks | search exclude true SLO Amazon EKS EKS SLO SIG https github com kubernetes community tree master sig scalability SLI Service Level Indicator SLO Service Level Objective SLI SLO 3 SLO SLI EKS Amazon EKS SLA CSI FailurePolicy Ignore K8s API SIG you promise we promise https github com kubernetes community blob master sig scalability slos slos md how we define scalability You promise https github com kubernetes community blob master sig scalability configs and limits thresholds md We promise SLO SLO SLO SLO https kubernetes io docs concepts overview components SLO SIG SLO SLI https github com kubernetes community blob master sig scalability slos slos md Amazon EKS SLO SLI EKS Objective Definition SLO API request latency mutating API 5 99 Kubernetes 99 1 API request latency read only API 5 99 Kubernetes 99 a scope resource 1 b 30 scope namespace scope cluster Pod startup latency 5 99 99 5 Objective Definition SLO API request latency mutating Latency of processing mutating API calls for single objects for every resource verb pair measured as 99th percentile over last 5 minutes In default Kubernetes installation for every resource verb pair excluding virtual and aggregated resources and Custom Resource Definitions 99th percentile per cluster day 1s API request latency read only Latency of processing non streaming read only API calls for every resource scope pair measured as 99th percentile over last 5 minutes In default Kubernetes installation for every resource scope pair excluding virtual and aggregated resources and Custom Resource Definitions 99th percentile per cluster day a 1s if scope resource b 30s otherwise if scope namespace or scope cluster Pod startup latency Startup latency of schedulable stateless pods excluding time to pull images and run init containers measured from pod creation timestamp to when all its containers are reported as started and observed via watch measured as 99th percentile over last 5 minutes In default Kubernetes installation 99th percentile per cluster day 5s API kube apiserver request timeout 1m0s 1 60 SLO Mutating etcd https kubernetes io docs concepts overview components etcd Etcd https etcd io resource verb 5 99 SLO 1 read only Pod X X kube apiserver etcd 5 99 SLO kubectl get pod n mynamespace my controller xxx 1 kubectl get pods A 30 Kubernetes SLO SLO JSON 1KiB 10MB APIListChunking https kubernetes io docs reference using api api concepts retrieving large results sets in chunks SLO WATCH https kubernetes io docs reference using api api concepts efficient detection of changes SLO 99 5 SLO SLO stateless SLI SLI https prometheus io docs concepts data model SLI PromQL https prometheus io docs prometheus latest querying basics Prometheus Grafana SLI SLO API Metric Definition apiserver request sli duration seconds verb apiserver request duration seconds verb apiserver request sli duration seconds 1 27 API Kubernetes SLO https github com kubernetes perf tests tree master clusterloader2 pkg prometheus manifests dashboards API SLI mutating histogram quantile 0 99 sum rate apiserver request sli duration seconds bucket verb CREATE DELETE PATCH POST PUT subresource proxy attach log exec portforward 5m by resource subresource verb scope le 0 API mutating API API SLI histogram quantile 0 99 sum rate apiserver request duration seconds bucket verb CREATE DELETE PATCH POST PUT subresource proxy attach log exec portforward 5m by resource subresource verb scope le 0 kubectl port forward kubectl exec API subresource proxy attach log exec portforward verb verb Create Delete Patch Post put 5 99 API verb LIST GET SLO API SLI 1s histogram quantile 0 99 sum rate apiserver request sli duration seconds bucket verb GET scope resource 5m by resource subresource verb scope le 5s histogram quantile 0 99 sum rate apiserver request sli duration seconds bucket verb LIST scope namespace 5m by resource subresource verb scope le 30 histogram quantile 0 99 sum rate apiserver request sli duration seconds bucket verb LIST scope cluster 5m by resource subresource verb scope le API API SLI 1 histogram quantile 0 99 sum rate apiserver request duration seconds bucket verb GET scope resource 5m by resource subresource verb scope le 5s histogram quantile 0 99 sum rate apiserver request duration seconds bucket verb LIST scope namespace 5m by resource subresource verb scope le 30 histogram quantile 0 99 sum rate apiserver request duration seconds bucket verb LIST scope cluster 5m by resource subresource verb scope le SLI API Priority Fairness API Metric Definition kubelet pod start sli duration seconds kubelet pod start duration seconds kubelet kubelet pod start sli duration seconds 1 27 Kubelet SLI histogram quantile 0 99 sum rate kubelet pod start sli duration seconds bucket 5m by le kubelet kubelet WATCH histogram quantile 0 99 sum rate kubelet pod start duration seconds bucket 5m by le SLO EKS Prometheus perf test repo https github com kubernetes perf tests Grafana perf kube prometheus stack https github com prometheus community helm charts tree main charts kube prometheus stack Amazon Managed Prometheus Amazon Managed Grafana https aws observability github io terraform aws observability accelerator eks kube prometheus stack SLO 1 kubectl apply f prometheus rules yaml https github com kubernetes perf tests blob master clusterloader2 pkg prometheus manifests prometheus rules yaml 1 2 kube prometheus stack Prometheus PrometheusSpec RuleSelector 2 Grafana json https github com kubernetes perf tests tree master clusterloader2 pkg prometheus manifests dashboards 1 slo json https github com kubernetes perf tests blob master clusterloader2 pkg prometheus manifests dashboards slo json SLO SLO Kubernetes Kube State Metrics https github com kubernetes kube state metrics tree main Prometheus https aws observability github io observability best practices guides containers oss eks best practices metrics collection control plane metrics |
eks exclude true EKS NTP syslog kube system search | ---
search:
exclude: true
---
# 클러스터 서비스
클러스터 서비스는 EKS 클러스터 내에서 실행되지만 사용자 워크로드는 아닙니다. 리눅스 서버를 사용하는 경우 워크로드를 지원하기 위해 NTP, syslog 및 컨테이너 런타임과 같은 서비스를 실행해야 하는 경우가 많습니다. 클러스터 서비스도 비슷하며 클러스터를 자동화하고 운영하는 데 도움이 되는 서비스를 지원합니다. 쿠버네티스에서 이들은 일반적으로 kube-system 네임스페이스에서 실행되고 일부는 [데몬셋](https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/)로 실행됩니다.
클러스터 서비스는 가동 시간이 길어질 것으로 예상되며 정전 및 문제 해결에 중요한 역할을 하는 경우가 많습니다. 코어 클러스터 서비스를 사용할 수 없는 경우 장애 복구 또는 예방에 도움이 되는 데이터 (예: 높은 디스크 사용률)에 액세스할 수 없게 될 수 있습니다. 별도의 노드 그룹 또는 AWS Fargate와 같은 전용 컴퓨팅 인스턴스에서 실행해야 합니다. 이렇게 하면 규모가 커지거나 리소스를 더 많이 사용하는 워크로드가 공유 인스턴스에 미치는 영향을 클러스터 서비스가 받지 않도록 할 수 있습니다.
## CoreDNS 스케일링
CoreDNS 스케일링에는 두 가지 기본 메커니즘이 있습니다. CoreDNS 서비스에 대한 호출 수를 줄이고 복제본 수를 늘립니다.
### ndot을 줄여 외부 쿼리를 줄입니다.
ndots 설정은 DNS 쿼리를 피하기에 충분하다고 간주되는 도메인 이름의 마침표 (일명 "점") 수를 지정합니다. 애플리케이션의 ndots 설정이 5 (기본값) 이고 api.example.com (점 2개) 과 같은 외부 도메인에서 리소스를 요청하는 경우 /etc/resolv.conf에 정의된 각 검색 도메인에 대해 CoreDNS가 쿼리되어 더 구체적인 도메인이 검색됩니다. 기본적으로 외부 요청을 하기 전에 다음 도메인이 검색됩니다.
```
api.example.<namespace>.svc.cluster.local
api.example.svc.cluster.local
api.example.cluster.local
api.example.<region>.compute.internal
```
`namespace` 및 `region` 값은 워크로드 네임스페이스 및 컴퓨팅 지역으로 대체됩니다. 클러스터 설정에 따라 추가 검색 도메인이 있을 수 있습니다.
워크로드의 [ndots 옵션 낮추기](https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/#pod-dns-config) 또는 후행 항목을 포함하여 도메인 요청을 완전히 검증하여 CoreDNS에 대한 요청 수를 줄일 수 있습니다.(예: `api.example.com.`). 워크로드가 DNS를 통해 외부 서비스에 연결하는 경우 워크로드가 불필요하게 클러스터 내에서 DNS 쿼리를 클러스터링하지 않도록 ndots를 2로 설정하는 것이 좋습니다. 워크로드에 클러스터 내부 서비스에 대한 액세스가 필요하지 않은 경우 다른 DNS 서버 및 검색 도메인을 설정할 수 있습니다.
```
spec:
dnsPolicy: "None"
dnsConfig:
options:
- name: ndots
value: "2"
- name: edns0
```
ndots를 너무 낮은 값으로 낮추거나 연결하려는 도메인의 구체성이 충분하지 않은 경우 (후행 포함) DNS 조회가 실패할 수 있습니다.이 설정이 워크로드에 어떤 영향을 미칠지 테스트해야 합니다.
### CoreDNS 수평 스케일링
CoreDNS 인스턴스는 배포에 복제본을 추가하여 확장할 수 있습니다. CoreDNS를 확장하려면 [NodeLocal DNS](https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/) 또는 [cluster proportional autoscaler](https://github.com/kubernetes-sigs/cluster-proportional-autoscaler)를 사용하는 것이 좋습니다.
NodeLocal DNS는 노드당 하나의 인스턴스를 데몬셋으로 실행해야 하며, 이를 위해서는 클러스터에 더 많은 컴퓨팅 리소스가 필요하지만 DNS 요청 실패를 방지하고 클러스터의 DNS 쿼리에 대한 응답 시간을 줄입니다. Cluster propertional autoscaler는 클러스터의 노드 또는 코어 수에 따라 CoreDNS의 크기를 조정합니다. 이는 쿼리 요청과 직접적인 상관 관계는 아니지만 워크로드 및 클러스터 크기에 따라 유용할 수 있습니다. 기본 비례 척도는 클러스터의 256개 코어 또는 16개 노드마다 추가 복제본을 추가하는 것입니다(둘 중 먼저 발생하는 기준).
## 쿠버네티스 Metric Server 수직 확장
쿠버네티스 Metric Server는 수평 및 수직 확장을 지원합니다. Metric Server를 수평적으로 확장하면 가용성은 높아지지만 더 많은 클러스터 메트릭을 처리할 수 있을 만큼 수평적으로 확장되지는 않습니다. 노드와 수집된 지표가 클러스터에 추가됨에 따라 [권장 사항](https://kubernetes-sigs.github.io/metrics-server/#scaling)에 따라 메트릭 서버를 수직으로 확장해야 합니다.
Metric Server는 수집, 집계 및 제공하는 데이터를 메모리에 보관합니다. 클러스터가 커지면 Metric Server가 저장하는 데이터 양도 늘어납니다. 대규모 클러스터에서 Metric Server는 기본 설치에 지정된 메모리 및 CPU 예약량보다 더 많은 컴퓨팅 리소스를 필요로 합니다.[Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler)(VPA) 또는 [Addon Resizer](https://github.com/kubernetes/autoscaler/tree/master/addon-resizer)를 사용하여 Metric Server를 확장할 수 있습니다. Addon Resizer는 Worker 노드에 비례하여 수직으로 확장되고 VPA는 CPU 및 메모리 사용량에 따라 조정됩니다.
## CoreDNS lameduck 지속 시간
파드는 이름 확인을 위해 `kube-dns` 서비스를 사용합니다. 쿠버네티스는 Destination NAT (DNAT) 를 사용하여 노드에서 CoreDNS 백엔드 파드로 `kube-dns` 트래픽을 리디렉션합니다. CoreDNS Deployment를 확장하면, `kube-proxy`는 노드의 iptables 규칙 및 체인을 업데이트하여 DNS 트래픽을 CoreDNS 파드로 리디렉션합니다. 확장 시 새 엔드포인트를 전파하고 축소할 때 규칙을 삭제하는데 클러스터 크기에 따라 CoreDNS를 삭제하는 데 1~10초 정도 걸릴 수 있습니다.
이러한 전파 지연으로 인해 CoreDNS 파드가 종료되었지만 노드의 iptables 규칙이 업데이트되지 않은 경우 DNS 조회 오류가 발생할 수 있습니다. 이 시나리오에서 노드는 종료된 CoreDNS 파드에 DNS 쿼리를 계속 전송할 수 있다.
CoreDNS 파드에 [lameduck](https://coredns.io/plugins/health/) 기간을 설정하여 DNS 조회 실패를 줄일 수 있습니다. Lameduck 모드에 있는 동안 CoreDNS는 계속해서 진행 중인 요청에 응답합니다.Lameduck 기간을 설정하면 CoreDNS 종료 프로세스가 지연되어 노드가 iptables 규칙 및 체인을 업데이트하는 데 필요한 시간을 확보할 수 있습니다.
CoreDNS lameduck 지속 시간을 30초로 설정하는 것이 좋습니다.
## CoreDNS readiness 프로브
CoreDNS의 Readiness 프로브에는 `/health` 대신 `/ready`를 사용하는 것을 추천합니다.
Lameduck 지속 시간을 30초로 설정하라는 이전 권장 사항에 따라, 파드 종료 전에 노드의 iptables 규칙을 업데이트할 수 있는 충분한 시간을 제공합니다. CoreDNS 준비 상태 프로브에 `/health` 대신 `/ready'를 사용하면 시작 시 CoreDNS 파드가 DNS 요청에 즉시 응답할 수 있도록 완벽하게 준비됩니다.
```yaml
readinessProbe:
httpGet:
path: /ready
port: 8181
scheme: HTTP
```
CoreDNS Ready 플러그인에 대한 자세한 내용은 [https://coredns.io/plugins/ready/](https://coredns.io/plugins/ready/) 을 참조하십시오.
## 로깅 및 모니터링 에이전트
로깅 및 모니터링 에이전트는 API 서버를 쿼리하여 워크로드 메타데이터로 로그와 메트릭을 보강하므로 클러스터 컨트롤 플레인에 상당한 로드를 추가할 수 있습니다. 노드의 에이전트는 컨테이너 및 프로세스 이름과 같은 항목을 보기 위해 로컬 노드 리소스에만 액세스할 수 있습니다. API 서버를 쿼리하면 Kubernetes Deployment 이름 및 레이블과 같은 세부 정보를 추가할 수 있습니다. 이는 문제 해결에는 매우 유용하지만 확장에는 해로울 수 있습니다.
로깅 및 모니터링에 대한 옵션이 너무 다양하기 때문에 모든 공급자에 대한 예를 표시할 수는 없습니다. [fluentbit](https://docs.fluentbit.io/manual/pipeline/filters/kubernetes)를 사용하면 Use_Kubelet을 활성화하여 Kubernetes API 서버 대신 로컬 kubelet에서 메타데이터를 가져오고 `Kube_Meta_Cache_TTL`을 줄이는 숫자로 설정하는 것이 좋습니다. 데이터를 캐시할 수 있을 때 호출을 반복합니다(예: 60).
조정 모니터링 및 로깅에는 두 가지 일반 옵션이 있습니다.
* 통합 비활성화
* 샘플링 및 필터링
로그 메타데이터가 손실되므로 통합을 비활성화하는 것이 옵션이 아닌 경우가 많습니다. 이렇게 하면 API 확장 문제가 제거되지만 필요할 때 필요한 메타데이터가 없어 다른 문제가 발생합니다.
샘플링 및 필터링을 수행하면 수집되는 지표 및 로그 수가 줄어듭니다. 이렇게 하면 Kubernetes API에 대한 요청 양이 줄어들고 수집되는 지표 및 로그에 필요한 스토리지 양이 줄어듭니다. 스토리지 비용을 줄이면 전체 시스템 비용도 낮아집니다.
샘플링을 구성하는 기능은 에이전트 소프트웨어에 따라 다르며 다양한 수집 지점에서 구현될 수 있습니다. API 서버 호출이 발생할 가능성이 높기 때문에 에이전트에 최대한 가깝게 샘플링을 추가하는 것이 중요합니다. 샘플링 지원에 대해 자세히 알아보려면 공급자에게 문의하세요.
CloudWatch 및 CloudWatch Logs를 사용하는 경우 [문서에 설명된](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/FilterAndPatternSyntax.html) 패턴을 사용하여 에이전트 필터링을 추가할 수 있습니다.
로그 및 지표 손실을 방지하려면 수신 받는 엔드포인트에서 중단이 발생할 경우 데이터를 버퍼링할 수 있는 시스템으로 데이터를 보내야 합니다. Fluentbit를 사용하면 [Amazon Kinesis Data Firehose](https://docs.fluentbit.io/manual/pipeline/outputs/firehose)를 사용하여 데이터를 임시로 보관할 수 있으므로 최종 데이터 저장 위치에 과부하가 걸릴 가능성이 줄어듭니다. | eks | search exclude true EKS NTP syslog kube system https kubernetes io docs concepts workloads controllers daemonset AWS Fargate CoreDNS CoreDNS CoreDNS ndot ndots DNS ndots 5 api example com 2 etc resolv conf CoreDNS api example namespace svc cluster local api example svc cluster local api example cluster local api example region compute internal namespace region ndots https kubernetes io docs concepts services networking dns pod service pod dns config CoreDNS api example com DNS DNS ndots 2 DNS spec dnsPolicy None dnsConfig options name ndots value 2 name edns0 ndots DNS CoreDNS CoreDNS CoreDNS NodeLocal DNS https kubernetes io docs tasks administer cluster nodelocaldns cluster proportional autoscaler https github com kubernetes sigs cluster proportional autoscaler NodeLocal DNS DNS DNS Cluster propertional autoscaler CoreDNS 256 16 Metric Server Metric Server Metric Server https kubernetes sigs github io metrics server scaling Metric Server Metric Server Metric Server CPU Vertical Pod Autoscaler https github com kubernetes autoscaler tree master vertical pod autoscaler VPA Addon Resizer https github com kubernetes autoscaler tree master addon resizer Metric Server Addon Resizer Worker VPA CPU CoreDNS lameduck kube dns Destination NAT DNAT CoreDNS kube dns CoreDNS Deployment kube proxy iptables DNS CoreDNS CoreDNS 1 10 CoreDNS iptables DNS CoreDNS DNS CoreDNS lameduck https coredns io plugins health DNS Lameduck CoreDNS Lameduck CoreDNS iptables CoreDNS lameduck 30 CoreDNS readiness CoreDNS Readiness health ready Lameduck 30 iptables CoreDNS health ready CoreDNS DNS yaml readinessProbe httpGet path ready port 8181 scheme HTTP CoreDNS Ready https coredns io plugins ready https coredns io plugins ready API API Kubernetes Deployment fluentbit https docs fluentbit io manual pipeline filters kubernetes Use Kubelet Kubernetes API kubelet Kube Meta Cache TTL 60 API Kubernetes API API CloudWatch CloudWatch Logs https docs aws amazon com AmazonCloudWatch latest logs FilterAndPatternSyntax html Fluentbit Amazon Kinesis Data Firehose https docs fluentbit io manual pipeline outputs firehose |
eks API Server API Server API Server search API Server exclude true | ---
search:
exclude: true
---
# 컨트롤 플레인 모니터링
## API Server
API Server를 살펴볼 때 그 기능 중 하나가 컨트롤 플레인의 과부하를 방지하기 위해 인바운드 요청을 조절하는 것임을 기억하는 것이 중요합니다. API Server 수준에서 병목 현상이 발생하는 것처럼 보일 수 있는 것은 실제로 더 심각한 문제로부터 이를 보호하는 것일 수도 있습니다. 시스템을 통해 이동하는 요청량 증가의 장단점을 고려해야 합니다. API Server 값을 늘려야 하는지 결정하기 위해 염두에 두어야 할 사항에 대한 작은 샘플링은 다음과 같습니다.
1. 시스템을 통해 이동하는 요청의 대기 시간은 얼마나 됩니까?
2. 지연 시간은 API Server 자체입니까, 아니면 etcd와 같은 "다운스트림"입니까?
3. API 서버 대기열 깊이가 이 지연 시간의 요인입니까?
4. API 우선 순위 및 공정성(APF) 대기열이 우리가 원하는 API 호출 패턴에 맞게 올바르게 설정되어 있습니까?
## 문제가 있는 곳은 어디입니까?
먼저 API 지연 시간 측정 지표를 사용하여 API Server가 요청을 처리하는 데 걸리는 시간을 파악할 수 있습니다. 아래 PromQL 및 Grafana 히트맵을 사용하여 이 데이터를 표시해 보겠습니다.
```
max(increase(apiserver_request_duration_seconds_bucket{subresource!="status",subresource!="token",subresource!="scale",subresource!="/healthz",subresource!="binding",subresource!="proxy",verb!="WATCH"}[$__rate_interval])) by (le)
```
!!! tip
이 문서에 사용된 API 대시보드로 API 서버를 모니터링하는 방법에 대한 자세한 내용은 다음 [blog](https://aws.amazon.com/blogs/containers/troubleshooting-amazon-eks-api-servers-with-prometheus/)를 참조하세요.
![API 요청 지연 히트맵](../images/api-request-duration.png)
이러한 요청은 모두 1초 아래에 있습니다. 이는 컨트롤 플레인이 적시에 요청을 처리하고 있음을 나타내는 좋은 표시입니다. 하지만 그렇지 않다면 어떨까요?
위의 API 요청 기간에서 사용하는 형식은 히트맵입니다. 히트맵 형식의 좋은 점은 기본적으로 API의 제한 시간 값(60초)을 알려준다는 것입니다. 그러나 실제로 알아야 할 것은 시간 초과 임계값에 도달하기 전에 이 값이 어떤 임계값에 관심을 가져야 하는가입니다. 허용 가능한 임계값에 대한 대략적인 지침을 보려면 [여기](https://github.com/kubernetes/community/blob/master/sig-scalability/slos/slos.md#steady-state-slisslos)에서 찾을 수 있는 업스트림 쿠버네티스 SLO를 사용할 수 있습니다.
!!! tip
이 명령문의 max 함수를 확인하세요. 여러 서버(기본적으로 EKS의 두 API Server)를 집계하는 지표를 사용할 때 해당 서버의 평균을 구하지 않는 것이 중요합니다.
### 비대칭 트래픽 패턴
한 API Server [pod]는 로드가 약하고 다른 하나는 과부하가 걸리면 어떻게 될까요?이 두 숫자의 평균을 구하면 무슨 일이 벌어졌는지 잘못 해석할 수 있습니다. 예를 들어, 여기에는 세 개의 API Server가 있지만 모든 로드는 이 API Server 중 하나에 있습니다. 일반적으로 etcd 및 API 서버와 같이 여러 서버가 있는 모든 것은 규모 및 성능 문제에 투자할 때 분리되어야 합니다.
![Total inflight requests](../images/inflight-requests.png)
API 우선순위 및 공정성(APF)으로 전환하면서 시스템의 총 요청 수는 API Server가 초과 구독되었는지 확인하는 하나의 요소일 뿐입니다. 이제 시스템에서 일련의 대기열을 사용하므로 대기열이 꽉 찼는지, 해당 대기열의 트래픽이 삭제되고 있는지 확인해야 합니다.
다음 쿼리를 사용하여 이러한 대기열을 살펴보겠습니다.
```
max without(instance)(apiserver_flowcontrol_request_concurrency_limit{})
```
!!! note
API A&F 작동 방식에 대한 자세한 내용은 다음 [모범 사례 가이드](https://aws.github.io/aws-eks-best-practices/scalability/docs/control-plane/#api-priority-and-fairness)를 참조하세요.
여기에서는 클러스터에 기본적으로 제공되는 7개의 서로 다른 우선순위 그룹을 볼 수 있습니다.
![Shared concurrency](../images/shared-concurrency.png)
다음으로 특정 우선순위 수준이 포화 상태인지 파악하기 위해 해당 우선순위 그룹이 몇 퍼센트의 비율로 사용되고 있는지 확인하고자 합니다. 워크로드가 낮은 수준에서는 요청을 스로틀링하는 것이 바람직할 수 있지만 리더 선출 수준에서는 그렇지 않을 수 있습니다.
API 우선 순위 및 공정성(APF) 시스템에는 여러 가지 복잡한 옵션이 있으며, 이러한 옵션 중 일부는 의도하지 않은 결과를 초래할 수 있습니다. 워크로드에서 일반적으로 볼 수 있는 문제는 불필요한 대기 시간이 추가되기 시작하는 지점까지 대기열 깊이를 늘리는 것입니다. `apiserver_flowcontrol_current_inqueue_request` 지표를 사용하여 이 문제를 모니터링할 수 있습니다. `apiserver_flowcontrol_rejected_requests_total`을 사용하여 삭제를 확인할 수 있습니다. 버킷이 동시성을 초과하는 경우 이러한 지표는 0이 아닌 값이 됩니다.
![Requests in use](../images/requests-in-use.png)
대기열 깊이를 늘리면 API Server가 지연 시간의 중요한 원인이 될 수 있으므로 주의해서 수행해야 합니다. 생성된 대기열 수를 신중하게 결정하는 것이 좋습니다. 예를 들어 EKS 시스템의 공유 수는 600개입니다. 너무 많은 대기열을 생성하면 리더 선택 대기열이나 시스템 대기열과 같이 처리량이 필요한 중요한 대기열의 공유가 줄어들 수 있습니다. 추가 대기열을 너무 많이 생성하면 이러한 대기열의 크기를 올바르게 지정하기가 더 어려워질 수 있습니다.
APF에서 수행할 수 있는 간단하고 영향력 있는 변경에 초점을 맞추기 위해 활용도가 낮은 버킷에서 공유를 가져와 최대 사용량에 있는 버킷의 크기를 늘립니다. 이러한 버킷 간에 공유를 지능적으로 재분배함으로써 삭제 가능성을 줄일 수 있습니다.
자세한 내용은 EKS 모범 사례 가이드 [API 우선순위 및 공정성 설정](https://aws.github.io/aws-eks-best-practices/scalability/docs/control-plane/#api-priority-and-fairness)을 참조하세요.
### API vs. etcd 지연 시간
API Server의 메트릭/로그를 사용하여 API Server에 문제가 있는지, API Server의 업스트림/다운스트림 또는 이 둘의 조합에 문제가 있는지 판단하려면 어떻게 해야 합니까? 이를 더 잘 이해하기 위해 API Server와 etcd가 어떤 관련이 있는지, 그리고 잘못된 시스템을 해결하는 것이 얼마나 쉬운지 살펴보겠습니다.
아래 차트에서는 API Server의 지연 시간을 볼 수 있지만, etcd 수준에서 대부분의 지연 시간을 보여주는 그래프의 막대로 인해 이 지연 시간의 상당 부분이 etcd 서버와 연관되어 있음을 알 수 있습니다. etcd 대기 시간이 15초이고 동시에 API 서버 대기 시간이 20초인 경우 대기 시간의 대부분은 실제로 etcd 수준에 있습니다
전체 흐름을 살펴보면 API Server에만 집중하지 않고 etcd가 압박을 받고 있음을 나타내는 신호(예: slow apply counters 증가)를 찾는 것이 현명하다는 것을 알 수 있습니다.
!!! tip
The dashboard in section can be found at https://github.com/RiskyAdventure/Troubleshooting-Dashboards/blob/main/api-troubleshooter.json
![ETCD duress](../images/etcd-duress.png)
### 컨트롤 플레인과 클라이언트 측 문제
이 차트에서는 해당 기간 동안 완료하는 데 가장 많은 시간이 걸린 API 호출을 찾고 있습니다. 이 경우 사용자 정의 리소스(CRD)가 05:40 시간 프레임 동안 가장 오래걸린 호출이 APPLY 함수라는 것을 볼 수 있습니다.
![Slowest requests](../images/slowest-requests.png)
이 데이터를 바탕으로 Ad-Hoc PromQL 또는 CloudWatch Insights 쿼리를 사용하여 해당 기간 동안 감사 로그에서 LIST 요청을 가져와서 어떤 애플리케이션인지 확인할 수 있습니다.
### CloudWatch로 소스 찾기
메트릭은 살펴보고자 하는 문제 영역을 찾고 문제의 기간과 검색 매개변수를 모두 좁히는 데 가장 잘 사용됩니다. 이 데이터가 확보되면 더 자세한 시간과 오류에 대한 로그로 전환하려고 합니다. 이를 위해 [CloudWatch Logs Insights](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AnalyzingLogData.html)를 사용하여 로그를 메트릭으로 전환합니다.
예를 들어, 위의 문제를 조사하기 위해 다음 CloudWatch Logs Insights 쿼리를 사용하여 사용자 에이전트 및 requestURI를 가져와서 어떤 애플리케이션이 이 지연을 일으키는지 정확히 파악할 수 있습니다.
!!! tip
Watch에서 정상적인 List/Resync 동작을 가져오지 않으려면 적절한 개수를 사용해야 합니다.
```
fields *@timestamp*, *@message*
| filter *@logStream* like "kube-apiserver-audit"
| filter ispresent(requestURI)
| filter verb = "list"
| parse requestReceivedTimestamp /\d+-\d+-(?<StartDay>\d+)T(?<StartHour>\d+):(?<StartMinute>\d+):(?<StartSec>\d+).(?<StartMsec>\d+)Z/
| parse stageTimestamp /\d+-\d+-(?<EndDay>\d+)T(?<EndHour>\d+):(?<EndMinute>\d+):(?<EndSec>\d+).(?<EndMsec>\d+)Z/
| fields (StartHour * 3600 + StartMinute * 60 + StartSec + StartMsec / 1000000) as StartTime, (EndHour * 3600 + EndMinute * 60 + EndSec + EndMsec / 1000000) as EndTime, (EndTime - StartTime) as DeltaTime
| stats avg(DeltaTime) as AverageDeltaTime, count(*) as CountTime by requestURI, userAgent
| filter CountTime >=50
| sort AverageDeltaTime desc
```
이 쿼리를 사용하여 대기 시간이 긴 list 작업을 대량으로 실행하는 두 개의 서로 다른 에이전트(Splunk 및 CloudWatch Agent)를 발견했습니다. 데이터를 바탕으로 이 컨트롤러를 제거, 업데이트하거나 다른 프로젝트로 교체하기로 결정할 수 있습니다.
![Query results](../images/query-results.png)
!!! tip
이 주제에 대한 자세한 내용은 다음 [블로그](https://aws.amazon.com/blogs/containers/troubleshooting-amazon-eks-api-servers-with-prometheus/)를 참조하세요.
## Scheduler
EKS 컨트롤 플레인 인스턴스는 별도의 AWS 계정에서 실행되므로 측정 지표에 대한 해당 구성 요소를 수집할 수 없습니다(API Server는 예외임). 그러나 이러한 구성 요소에 대한 감사 로그에 액세스할 수 있으므로 해당 로그를 지표로 변환하여 확장 시 병목 현상을 일으키는 하위 시스템이 있는지 확인할 수 있습니다. CloudWatch Logs Insights를 사용하여 스케줄러 대기열에 예약되지 않은 Pod가 몇 개 있는지 확인해 보겠습니다.
### 스케줄러 로그에서 예약되지 않은 파드
자체 관리형 쿠버네티스(예: Kops)에서 직접 스케줄러 지표를 스크랩할 수 있는 액세스 권한이 있는 경우 다음 PromQL을 사용하여 스케줄러 백로그를 이해합니다.
```
max without(instance)(scheduler_pending_pods)
```
EKS에서는 위 지표에 액세스할 수 없으므로 아래 CloudWatch Logs Insights 쿼리를 사용하여 특정 기간 동안 예약을 취소할 수 없었던 파드 수를 확인하여 백로그를 확인할 것입니다. 그러면 피크 타임의 메시지를 더 자세히 분석하여 병목 현상의 특성을 이해할 수 있습니다. 노드가 충분히 빠르게 교체되지 않거나 스케줄러 자체의 rate limiter를 예로 들 수 있습니다.
```
fields timestamp, pod, err, *@message*
| filter *@logStream* like "scheduler"
| filter *@message* like "Unable to schedule pod"
| parse *@message* /^.(?<date>\d{4})\s+(?<timestamp>\d+:\d+:\d+\.\d+)\s+\S*\s+\S+\]\s\"(.*?)\"\s+pod=(?<pod>\"(.*?)\")\s+err=(?<err>\"(.*?)\")/
| count(*) as count by pod, err
| sort count desc
```
여기서는 스토리지 PVC를 사용할 수 없어 파드가 배포되지 않았다는 스케줄러의 오류를 볼 수 있습니다.
![CloudWatch Logs query](../images/cwl-query.png)
!!! note
이 기능을 활성화하려면 컨트롤 플레인에서 감사 로깅을 켜야 합니다. 시간이 지남에 따라 불필요하게 비용이 증가하지 않도록 로그 보존을 제한하는 것도 가장 좋은 방법입니다. 다음은 EKSCTL 도구를 사용하여 모든 로깅 기능을 켜는 예제입니다.
```yaml
cloudWatch:
clusterLogging:
enableTypes: ["*"]
logRetentionInDays: 10
```
## Kube Controller Manager
다른 모든 컨트롤러와 마찬가지로 Kube Controller Manager는 한 번에 수행할 수 있는 작업 수에 제한이 있습니다. 이러한 파라미터를 설정할 수 있는 KOPS 구성을 살펴보면서 이러한 플래그 중 일부가 무엇인지 살펴보겠습니다.
```yaml
kubeControllerManager:
concurrentEndpointSyncs: 5
concurrentReplicasetSyncs: 5
concurrentNamespaceSyncs: 10
concurrentServiceaccountTokenSyncs: 5
concurrentServiceSyncs: 5
concurrentResourceQuotaSyncs: 5
concurrentGcSyncs: 20
kubeAPIBurst: 20
kubeAPIQPS: "30"
```
이러한 컨트롤러에는 클러스터에서 변동이 심할 때 대기열이 꽉 차게 됩니다. 이 경우 replicaset controller의 대기열에 대규모 백로그가 있는 것을 확인할 수 있습니다.
![Queues](../images/queues.png)
이러한 상황을 해결하는 방법에는 두 가지가 있습니다. 자체 관리를 실행하는 경우 동시 고루틴을 늘릴 수 있지만 이는 KCM에서 더 많은 데이터를 처리하여 etcd에 영향을 미칠 수 있습니다. 다른 옵션은 배포에서 `.spec.revisionHistoryLimit`을 사용하여 replicaset 개체 수를 줄이고 롤백할 수 있는 replicaset 개체 수를 줄여 해당 컨트롤러에 대한 부담을 줄이는 것입니다.
```yaml
spec:
revisionHistoryLimit: 2
```
다른 쿠버네티스 기능을 조정하거나 해제하여 이탈률이 높은 시스템의 압력을 줄일 수 있습니다. 예를 들어, 파드의 애플리케이션이 k8s API와 직접 통신할 필요가 없는 경우 해당 파드에 적용된 시크릿을 끄면 ServiceAccountTokenSync의 부하를 줄일 수 있습니다. 가능하면 이런 문제를 해결할 수 있는 더 바람직한 방법입니다.
```yaml
kind: Pod
spec:
automountServiceAccountToken: false
```
지표에 액세스할 수 없는 시스템에서는 로그를 다시 검토하여 경합을 감지할 수 있습니다. 컨트롤러당 또는 집계 수준에서 처리되는 요청의 수를 확인하려면 다음과 같은 CloudWatch Logs Insights 쿼리를 사용하면 됩니다.
### Total Volume Processed by the KCM
```
# Query to count API qps coming from kube-controller-manager, split by controller type.
# If you're seeing values close to 20/sec for any particular controller, it's most likely seeing client-side API throttling.
fields @timestamp, @logStream, @message
| filter @logStream like /kube-apiserver-audit/
| filter userAgent like /kube-controller-manager/
# Exclude lease-related calls (not counted under kcm qps)
| filter requestURI not like "apis/coordination.k8s.io/v1/namespaces/kube-system/leases/kube-controller-manager"
# Exclude API discovery calls (not counted under kcm qps)
| filter requestURI not like "?timeout=32s"
# Exclude watch calls (not counted under kcm qps)
| filter verb != "watch"
# If you want to get counts of API calls coming from a specific controller, uncomment the appropriate line below:
# | filter user.username like "system:serviceaccount:kube-system:job-controller"
# | filter user.username like "system:serviceaccount:kube-system:cronjob-controller"
# | filter user.username like "system:serviceaccount:kube-system:deployment-controller"
# | filter user.username like "system:serviceaccount:kube-system:replicaset-controller"
# | filter user.username like "system:serviceaccount:kube-system:horizontal-pod-autoscaler"
# | filter user.username like "system:serviceaccount:kube-system:persistent-volume-binder"
# | filter user.username like "system:serviceaccount:kube-system:endpointslice-controller"
# | filter user.username like "system:serviceaccount:kube-system:endpoint-controller"
# | filter user.username like "system:serviceaccount:kube-system:generic-garbage-controller"
| stats count(*) as count by user.username
| sort count desc
```
여기서 중요한 점은 확장성 문제를 조사할 때 자세한 문제 해결 단계로 이동하기 전에 경로의 모든 단계(API, 스케줄러, KCM 등)를 살펴보는 것입니다. 프로덕션에서는 시스템이 최고의 성능으로 작동할 수 있도록 쿠버네티스의 두 부분 이상을 조정해야 하는 경우가 종종 있습니다. 훨씬 더 큰 병목 현상의 단순한 증상(예: 노드 시간 초과)을 실수로 해결하는 것은 쉽습니다.
## ETCD
etcd는 메모리 매핑 파일을 사용하여 키 값 쌍을 효율적으로 저장합니다. 일반적으로 2, 4, 8GB 제한으로 설정된 사용 가능한 메모리 공간의 크기를 설정하는 보호 메커니즘이 있습니다. 데이터베이스의 개체 수가 적다는 것은 개체가 업데이트되고 이전 버전을 정리해야 할 때 etcd에서 수행해야 하는 정리 작업이 줄어든다는 것을 의미합니다. 객체의 이전 버전을 정리하는 이러한 프로세스를 압축이라고 합니다. 여러 번의 압축 작업 후에는 특정 임계값 이상 또는 고정된 시간 일정에 따라 발생하는 조각 모음(defragging)이라는 사용 가능한 공간을 복구하는 후속 프로세스가 있습니다.
쿠버네티스의 개체 수를 제한하여 압축 및 조각 모음 프로세스의 영향을 줄이기 위해 수행할 수 있는 몇 가지 사용자 관련 항목이 있습니다. 예를 들어 Helm은 높은 `revisionHistoryLimit`을 유지합니다. 이렇게 하면 ReplicaSet와 같은 이전 개체가 시스템에 유지되어 롤백을 수행할 수 있습니다. 기록 제한을 2로 설정하면 개체(예: ReplicaSets) 수를 10에서 2로 줄일 수 있으며 결과적으로 시스템에 대한 로드가 줄어듭니다.
```yaml
apiVersion: apps/v1
kind: Deployment
spec:
revisionHistoryLimit: 2
```
모니터링 관점에서 시스템 지연 시간 급증이 시간 단위로 구분된 설정된 패턴으로 발생하는 경우 이 조각 모음 프로세스가 원인인지 확인하는 것이 도움이 될 수 있습니다. CloudWatch Logs를 사용하면 이를 확인할 수 있습니다.
조각 모음의 시작/종료 시간을 보려면 다음 쿼리를 사용하십시오.
```
fields *@timestamp*, *@message*
| filter *@logStream* like /etcd-manager/
| filter *@message* like /defraging|defraged/
| sort *@timestamp* asc
```
![Defrag query](../images/defrag.png)
| eks | search exclude true API Server API Server API Server API Server 1 2 API Server etcd 3 API 4 API APF API API API Server PromQL Grafana max increase apiserver request duration seconds bucket subresource status subresource token subresource scale subresource healthz subresource binding subresource proxy verb WATCH rate interval by le tip API API blog https aws amazon com blogs containers troubleshooting amazon eks api servers with prometheus API images api request duration png 1 API API 60 https github com kubernetes community blob master sig scalability slos slos md steady state slisslos SLO tip max EKS API Server API Server pod API Server API Server etcd API Total inflight requests images inflight requests png API APF API Server max without instance apiserver flowcontrol request concurrency limit note API A F https aws github io aws eks best practices scalability docs control plane api priority and fairness 7 Shared concurrency images shared concurrency png API APF apiserver flowcontrol current inqueue request apiserver flowcontrol rejected requests total 0 Requests in use images requests in use png API Server EKS 600 APF EKS API https aws github io aws eks best practices scalability docs control plane api priority and fairness API vs etcd API Server API Server API Server API Server etcd API Server etcd etcd etcd 15 API 20 etcd API Server etcd slow apply counters tip The dashboard in section can be found at https github com RiskyAdventure Troubleshooting Dashboards blob main api troubleshooter json ETCD duress images etcd duress png API CRD 05 40 APPLY Slowest requests images slowest requests png Ad Hoc PromQL CloudWatch Insights LIST CloudWatch CloudWatch Logs Insights https docs aws amazon com AmazonCloudWatch latest logs AnalyzingLogData html CloudWatch Logs Insights requestURI tip Watch List Resync fields timestamp message filter logStream like kube apiserver audit filter ispresent requestURI filter verb list parse requestReceivedTimestamp d d StartDay d T StartHour d StartMinute d StartSec d StartMsec d Z parse stageTimestamp d d EndDay d T EndHour d EndMinute d EndSec d EndMsec d Z fields StartHour 3600 StartMinute 60 StartSec StartMsec 1000000 as StartTime EndHour 3600 EndMinute 60 EndSec EndMsec 1000000 as EndTime EndTime StartTime as DeltaTime stats avg DeltaTime as AverageDeltaTime count as CountTime by requestURI userAgent filter CountTime 50 sort AverageDeltaTime desc list Splunk CloudWatch Agent Query results images query results png tip https aws amazon com blogs containers troubleshooting amazon eks api servers with prometheus Scheduler EKS AWS API Server CloudWatch Logs Insights Pod Kops PromQL max without instance scheduler pending pods EKS CloudWatch Logs Insights rate limiter fields timestamp pod err message filter logStream like scheduler filter message like Unable to schedule pod parse message date d 4 s timestamp d d d d s S s S s s pod pod s err err count as count by pod err sort count desc PVC CloudWatch Logs query images cwl query png note EKSCTL yaml cloudWatch clusterLogging enableTypes logRetentionInDays 10 Kube Controller Manager Kube Controller Manager KOPS yaml kubeControllerManager concurrentEndpointSyncs 5 concurrentReplicasetSyncs 5 concurrentNamespaceSyncs 10 concurrentServiceaccountTokenSyncs 5 concurrentServiceSyncs 5 concurrentResourceQuotaSyncs 5 concurrentGcSyncs 20 kubeAPIBurst 20 kubeAPIQPS 30 replicaset controller Queues images queues png KCM etcd spec revisionHistoryLimit replicaset replicaset yaml spec revisionHistoryLimit 2 k8s API ServiceAccountTokenSync yaml kind Pod spec automountServiceAccountToken false CloudWatch Logs Insights Total Volume Processed by the KCM Query to count API qps coming from kube controller manager split by controller type If you re seeing values close to 20 sec for any particular controller it s most likely seeing client side API throttling fields timestamp logStream message filter logStream like kube apiserver audit filter userAgent like kube controller manager Exclude lease related calls not counted under kcm qps filter requestURI not like apis coordination k8s io v1 namespaces kube system leases kube controller manager Exclude API discovery calls not counted under kcm qps filter requestURI not like timeout 32s Exclude watch calls not counted under kcm qps filter verb watch If you want to get counts of API calls coming from a specific controller uncomment the appropriate line below filter user username like system serviceaccount kube system job controller filter user username like system serviceaccount kube system cronjob controller filter user username like system serviceaccount kube system deployment controller filter user username like system serviceaccount kube system replicaset controller filter user username like system serviceaccount kube system horizontal pod autoscaler filter user username like system serviceaccount kube system persistent volume binder filter user username like system serviceaccount kube system endpointslice controller filter user username like system serviceaccount kube system endpoint controller filter user username like system serviceaccount kube system generic garbage controller stats count as count by user username sort count desc API KCM ETCD etcd 2 4 8GB etcd defragging Helm revisionHistoryLimit ReplicaSet 2 ReplicaSets 10 2 yaml apiVersion apps v1 kind Deployment spec revisionHistoryLimit 2 CloudWatch Logs fields timestamp message filter logStream like etcd manager filter message like defraging defraged sort timestamp asc Defrag query images defrag png |
eks exclude true API Server Controller Manager Scheduler search | ---
search:
exclude: true
---
# 쿠버네티스 컨트롤 플레인
쿠버네티스 컨트롤 플레인은 쿠버네티스 API Server, 쿠버네티스 Controller Manager, Scheduler 및 쿠버네티스가 작동하는 데 필요한 기타 구성 요소로 구성됩니다. 이러한 구성 요소의 확장성 제한은 클러스터에서 실행 중인 항목에 따라 다르지만 확장에 가장 큰 영향을 미치는 영역에는 쿠버네티스 버전, 사용률 및 개별 노드 확장이 포함됩니다.
## EKS 1.24 이상을 사용하세요
EKS 1.24에는 여러 가지 변경 사항이 도입되었으며 컨테이너 런타임을 docker 대신 [containerd](https://containerd.io/)로 전환했습니다. Containerd는 쿠버네티스의 요구 사항에 긴밀하게 맞춰 컨테이너 런타임 기능을 제한하여 개별 노드 성능을 높여 클러스터 확장을 돕습니다. Containerd는 지원되는 모든 EKS 버전에서 사용할 수 있으며, 1.24 이전 버전에서 Containerd로 전환하려면 [`--container-runtime` bootstrap flag](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-ami.html#containerd-bootstrap)를 사용하세요.
## 워크로드 및 노드 버스팅 제한
!!! Attention
컨트롤 플레인에서 API 한도에 도달하지 않으려면 클러스터 크기를 한 번에 두 자릿수 비율로 늘리는 급격한 확장을 제한해야 합니다(예: 한 번에 1000개 노드에서 1100개 노드로 또는 4000개에서 4500개 파드로).
EKS 컨트롤 플레인은 클러스터가 성장함에 따라 자동으로 확장되지만 확장 속도에는 제한이 있습니다. EKS 클러스터를 처음 생성할 때 컨트롤 플레인은 즉시 수백 개의 노드 또는 수천 개의 파드로 확장될 수 없습니다. EKS의 스케일링 개선 방법에 대해 자세히 알아보려면 [이 블로그 게시물](https://aws.amazon.com/blogs/containers/amazon-eks-control-plane-auto-scaling-enhancements-improve-speed-by-4x/)을 참조하세요.
대규모 애플리케이션을 확장하려면 인프라가 완벽하게 준비되도록 조정해야 합니다(예: 로드 밸런서 워밍). 확장 속도를 제어하려면 애플리케이션에 적합한 측정 지표를 기반으로 확장하고 있는지 확인합니다. CPU 및 메모리 확장은 애플리케이션 제약 조건을 정확하게 예측하지 못할 수 있으며 쿠버네티스 HPA(Horizontal Pod Autoscaler)에서 사용자 지정 지표(예: 초당 요청)를 사용하는 것이 더 나은 확장 옵션일 수 있습니다.
사용자 정의 지표를 사용하려면 [쿠버네티스 문서](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/#autoscaling-on-multiple-metrics-and-custom-metrics)의 예를 참조하세요. 고급 확장이 필요하거나 외부 소스(예: AWS SQS 대기열)를 기반으로 확장해야 하는 경우 이벤트 기반 워크로드 확장을 위해 [KEDA](https://keda.sh)를 사용하세요.
## 노드와 파드를 안전하게 축소
### 장기 실행 인스턴스 교체
정기적으로 노드를 교체하면 구성 드리프트와 가동 시간이 연장된 후에만 발생하는 문제(예: 느린 메모리 누수)를 방지하여 클러스터를 건강한 상태로 유지할 수 있습니다. 자동 교체는 노드 업그레이드 및 보안 패치에 대한 좋은 프로세스와 사례를 제공합니다. 클러스터의 모든 노드가 정기적으로 교체되면 지속적인 유지 관리를 위해 별도의 프로세스를 유지하는 데 필요한 노력이 줄어듭니다.
Karpenter의 [Time To Live (TTL)](https://aws.github.io/aws-eks-best-practices/karpenter/#use-timers-ttl-to-automatically-delete-nodes-from-the-cluster) 설정을 통해 지정된 시간 동안 인스턴스가 실행된 후 인스턴스를 교체할 수 있습니다. 자체 관리형 노드 그룹은 `max-instance-lifetime` 설정을 사용하여 노드를 자동으로 교체할 수 있습니다. 관리형 노드 그룹에는 현재 이 기능이 없지만 [여기 GitHub에서](https://github.com/aws/containers-roadmap/issues/1190) 요청을 확인할 수 있습니다.
### 활용도가 낮은 노드 제거
[`--scale-down-utilization-threshold`](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-does-scale-down-work)를 통해 쿠버네티스 Cluster Autoscaler의 축소 임계값을 사용하여 실행 중인 워크로드가 없을 때 노드를 제거할 수 있습니다. 또는 Karpenter에서 `ttlSecondsAfterEmpty` 프로비저너 설정을 활용할 수 있습니다.
### Pod Distruption Budgets 및 안전한 노드 셧다운 사용
쿠버네티스 클러스터에서 파드와 노드를 제거하려면 컨트롤러가 여러 리소스(예: EndpointSlices)를 업데이트해야 합니다. 이 작업을 자주 또는 너무 빠르게 수행하면 변경 사항이 컨트롤러에 전파되면서 API Server 쓰로틀링 및 애플리케이션 중단이 발생할 수 있습니다. [Pod Distruption Budgets](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/)은 클러스터에서 노드가 제거되거나 스케줄이 조정될 때 변동 속도를 늦추어 워크로드 가용성을 보호하는 모범 사례입니다.
## Kubectl 실행 시 클라이언트측 캐시 사용
kubectl 명령을 비효율적으로 사용하면 쿠버네티스 API Server에 추가 로드가 발생될 수 있습니다. kubectl을 반복적으로(예: for 루프에서) 사용하는 스크립트나 자동화를 실행하거나 로컬 캐시 없이 명령을 실행하는 것을 피해야 합니다.
`kubectl`에는 필요한 API 호출 양을 줄이기 위해 클러스터에서 검색 정보를 캐시하는 클라이언트 측 캐시가 있습니다. 캐시는 기본적으로 활성화되어 있으며 10분마다 새로 고쳐집니다.
컨테이너에서 또는 클라이언트 측 캐시 없이 kubectl을 실행하는 경우 API 쓰로틀링 문제가 발생할 수 있습니다. 불필요한 API 호출을 피하기 위해 `--cache-dir`을 마운트하여 클러스터 캐시를 유지하는 것이 좋습니다.
## kubectl Compression 비활성화
kubeconfig 파일에서 kubectl compression을 비활성화하면 API 및 클라이언트 CPU 사용량을 줄일 수 있습니다. 기본적으로 서버는 클라이언트로 전송된 데이터를 압축하여 네트워크 대역폭을 최적화합니다. 이렇게 하면 요청마다 클라이언트와 서버에 CPU 부하가 가중되며, 대역폭이 충분하다면 압축을 비활성화하면 오버헤드와 지연 시간을 줄일 수 있습니다. 압축을 비활성화하려면 kubeconfig 파일에서 `--disable-compression=true` 플래그를 사용하거나 `disable-compression: true`로 설정하면 됩니다.
```
apiVersion: v1
clusters:
- cluster:
server: serverURL
disable-compression: true
name: cluster
```
## Cluster Autoscaler 샤딩
[쿠버네티스 Cluster Autoscaler는 테스트를 거쳤습니다](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/proposals/scalability_tests.md). 최대 1,000개 노드까지 확장할 수 있습니다. 1000개 이상의 노드가 있는 대규모 클러스터에서는 Cluster AutoScaler를 여러 인스턴스에 샤드 모드로 실행하는 것이 좋습니다. 각 클러스터 오토스케일러 인스턴스는 노드 그룹 세트를 확장하도록 구성되어 있습니다. 다음 예는 각 4개의 노드 그룹에 구성된 2개의 클러스터 오토 스케일링 구성을 보여줍니다.
ClusterAutoscaler-1
```
autoscalingGroups:
- name: eks-core-node-grp-20220823190924690000000011-80c1660e-030d-476d-cb0d-d04d585a8fcb
maxSize: 50
minSize: 2
- name: eks-data_m1-20220824130553925600000011-5ec167fa-ca93-8ca4-53a5-003e1ed8d306
maxSize: 450
minSize: 2
- name: eks-data_m2-20220824130733258600000015-aac167fb-8bf7-429d-d032-e195af4e25f5
maxSize: 450
minSize: 2
- name: eks-data_m3-20220824130553914900000003-18c167fa-ca7f-23c9-0fea-f9edefbda002
maxSize: 450
minSize: 2
```
ClusterAutoscaler-2
```
autoscalingGroups:
- name: eks-data_m4-2022082413055392550000000f-5ec167fa-ca86-6b83-ae9d-1e07ade3e7c4
maxSize: 450
minSize: 2
- name: eks-data_m5-20220824130744542100000017-02c167fb-a1f7-3d9e-a583-43b4975c050c
maxSize: 450
minSize: 2
- name: eks-data_m6-2022082413055392430000000d-9cc167fa-ca94-132a-04ad-e43166cef41f
maxSize: 450
minSize: 2
- name: eks-data_m7-20220824130553921000000009-96c167fa-ca91-d767-0427-91c879ddf5af
maxSize: 450
minSize: 2
```
## API Priority and Fairness
![](../images/APF.jpg)
### 개요
<iframe width="560" height="315" src="https://www.youtube.com/embed/YnPPHBawhE0" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
요청이 증가하는 기간 동안 과부하가 발생하지 않도록 보호하기 위해 API 서버는 특정 시간에 처리할 수 있는 진행 중인 요청 수를 제한합니다. 이 제한을 초과하면 API 서버는 요청을 거부하기 시작하고 "Too many requests"에 대한 429 HTTP 응답 코드를 클라이언트에 반환합니다. 서버가 요청을 삭제하고 클라이언트가 나중에 다시 시도하도록 하는 것이 요청 수에 대한 서버 측 제한을 두지 않고 컨트롤 플레인에 과부하를 주어 성능이 저하되거나 가용성이 저하될 수 있는 것보다 더 좋습니다.
이러한 진행 중인 요청이 다양한 요청 유형으로 나누어지는 방식을 구성하기 위해 쿠버네티스에서 사용하는 메커니즘을 [API Priority and Fairness](https://kubernetes.io/docs/concepts/cluster-administration/flow-control/)이라고 합니다. API 서버는 `--max-requests-inflight` 및 `--max-mutating-requests-inflight` 플래그로 지정된 값을 합산하여 허용할 수 있는 총 진행 중인 요청 수를 구성합니다. EKS는 이러한 플래그에 대해 기본값인 400개 및 200개 요청을 사용하므로 주어진 시간에 총 600개의 요청을 전달할 수 있습니다. APF는 이러한 600개의 요청을 다양한 요청 유형으로 나누는 방법을 지정합니다. EKS 컨트롤 플레인은 각 클러스터에 최소 2개의 API 서버가 등록되어 있어 가용성이 높습니다. 이렇게 하면 클러스터 전체의 총 진행 중인 요청 수가 1200개로 늘어납니다.
PriorityLevelConfigurations 및 FlowSchemas라는 두 종류의 쿠버네티스 객체는 총 요청 수가 다양한 요청 유형 간에 분할되는 방식을 구성합니다. 이러한 객체는 API 서버에 의해 자동으로 유지 관리되며 EKS는 지정된 쿠버네티스 마이너 버전에 대해 이러한 객체의 기본 구성을 사용합니다. PriorityLevelConfigurations는 허용된 총 요청 수의 일부를 나타냅니다. 예를 들어 워크로드가 높은 PriorityLevelConfiguration에는 총 600개의 요청 중 98개가 할당됩니다. 모든 PriorityLevelConfigurations에 할당된 요청의 합계는 600입니다(또는 특정 수준이 요청의 일부만 허용된 경우 API Server가 반올림하므로 600보다 약간 높음). 클러스터의 PriorityLevelConfigurations와 각각에 할당된 요청 수를 확인하려면 다음 명령을 실행할 수 있습니다. EKS 1.24의 기본값은 다음과 같습니다.
```
$ kubectl get --raw /metrics | grep apiserver_flowcontrol_request_concurrency_limit
apiserver_flowcontrol_request_concurrency_limit{priority_level="catch-all"} 13
apiserver_flowcontrol_request_concurrency_limit{priority_level="global-default"} 49
apiserver_flowcontrol_request_concurrency_limit{priority_level="leader-election"} 25
apiserver_flowcontrol_request_concurrency_limit{priority_level="node-high"} 98
apiserver_flowcontrol_request_concurrency_limit{priority_level="system"} 74
apiserver_flowcontrol_request_concurrency_limit{priority_level="workload-high"} 98
apiserver_flowcontrol_request_concurrency_limit{priority_level="workload-low"} 245
```
두 번째 유형의 객체는 FlowSchemas입니다. 특정 속성 세트가 포함된 API 서버 요청은 동일한 FlowSchema로 분류됩니다. 이러한 속성에는 인증된 사용자나 API Group, 네임스페이스 또는 리소스와 같은 요청의 속성이 포함됩니다. FlowSchema는 또한 이 유형의 요청이 매핑되어야 하는 PriorityLevelConfiguration을 지정합니다. 두 개체는 함께 "이 유형의 요청이 이 inflight 요청 비율에 포함되기를 원합니다."라고 말합니다. 요청이 API Server에 도달하면 모든 필수 속성과 일치하는 FlowSchemas를 찾을 때까지 각 FlowSchemas를 확인합니다. 여러 FlowSchemas가 요청과 일치하는 경우 API Server는 개체의 속성으로 지정된 일치 우선 순위가 가장 작은 FlowSchema를 선택합니다.
FlowSchemas와 PriorityLevelConfigurations의 매핑은 다음 명령을 사용하여 볼 수 있습니다.
```
$ kubectl get flowschemas
NAME PRIORITYLEVEL MATCHINGPRECEDENCE DISTINGUISHERMETHOD AGE MISSINGPL
exempt exempt 1 <none> 7h19m False
eks-exempt exempt 2 <none> 7h19m False
probes exempt 2 <none> 7h19m False
system-leader-election leader-election 100 ByUser 7h19m False
endpoint-controller workload-high 150 ByUser 7h19m False
workload-leader-election leader-election 200 ByUser 7h19m False
system-node-high node-high 400 ByUser 7h19m False
system-nodes system 500 ByUser 7h19m False
kube-controller-manager workload-high 800 ByNamespace 7h19m False
kube-scheduler workload-high 800 ByNamespace 7h19m False
kube-system-service-accounts workload-high 900 ByNamespace 7h19m False
eks-workload-high workload-high 1000 ByUser 7h14m False
service-accounts workload-low 9000 ByUser 7h19m False
global-default global-default 9900 ByUser 7h19m False
catch-all catch-all 10000 ByUser 7h19m False
```
PriorityLevelConfigurations에는 Queue, Reject 또는 Exempt 유형이 있을 수 있습니다. Queue 및 Reject 유형의 경우 해당 우선순위 수준에 대한 최대 진행 중인 요청 수에 제한이 적용되지만 해당 제한에 도달하면 동작이 달라집니다. 예를 들어 워크로드가 높은 PriorityLevelConfiguration은 Queue 유형을 사용하며 컨트롤러 매니저, 엔드포인트 컨트롤러, 스케줄러 및 kube-system 네임스페이스에서 실행되는 파드에서 사용할 수 있는 요청이 98개 있습니다. Queue 유형이 사용되므로 API Server는 요청을 메모리에 유지하려고 시도하며 이러한 요청이 시간 초과되기 전에 진행 중인 요청 수가 98개 미만으로 떨어지기를 희망합니다. 특정 요청이 대기열에서 시간 초과되거나 너무 많은 요청이 이미 대기열에 있는 경우 API Server는 요청을 삭제하고 클라이언트에 429를 반환할 수밖에 없습니다. 대기열에 있으면 요청이 429를 수신하지 못할 수 있지만 요청의 종단 간 지연 시간이 늘어나는 단점이 있습니다.
이제 Reject 유형을 사용하여 포괄적인 PriorityLevelConfiguration에 매핑되는 포괄적인 FlowSchema를 살펴보겠습니다. 클라이언트가 13개의 진행 중인 요청 제한에 도달하면 API Server는 대기열을 실행하지 않고 429 응답 코드를 사용하여 요청을 즉시 삭제합니다. 마지막으로 Exempt 유형을 사용하여 PriorityLevelConfiguration에 매핑하는 요청은 429를 수신하지 않으며 항상 즉시 전달됩니다. 이는 healthz 요청이나 system:masters 그룹에서 오는 요청과 같은 우선순위가 높은 요청에 사용됩니다.
### APF 및 삭제된 요청 모니터링
APF로 인해 삭제된 요청이 있는지 확인하려면 `apiserver_flowcontrol_rejected_requests_total`에 대한 API Server 지표를 모니터링하여 영향을 받은 FlowSchemas 및 PriorityLevelConfigurations를 확인할 수 있습니다. 예를 들어 이 지표는 워크로드가 낮은 대기열의 요청 시간 초과로 인해 service account FlowSchema의 요청 100개가 삭제되었음을 보여줍니다.
```
% kubectl get --raw /metrics | grep apiserver_flowcontrol_rejected_requests_total
apiserver_flowcontrol_rejected_requests_total{flow_schema="service-accounts",priority_level="workload-low",reason="time-out"} 100
```
지정된 PriorityLevelConfiguration이 429를 수신하거나 큐로 인해 지연 시간이 증가하는 정도를 확인하려면 동시성 제한과 사용 중인 동시성의 차이를 비교할 수 있습니다. 이 예에는 100개의 요청 버퍼가 있습니다.
```
% kubectl get --raw /metrics | grep 'apiserver_flowcontrol_request_concurrency_limit.*workload-low'
apiserver_flowcontrol_request_concurrency_limit{priority_level="workload-low"} 245
% kubectl get --raw /metrics | grep 'apiserver_flowcontrol_request_concurrency_in_use.*workload-low'
apiserver_flowcontrol_request_concurrency_in_use{flow_schema="service-accounts",priority_level="workload-low"} 145
```
특정 PriorityLevelConfiguration에서 대기열이 발생하지만 반드시 요청이 삭제되는 것은 아닌지 확인하려면 `apiserver_flowcontrol_current_inqueue_requests`에 대한 측정 지표를 참조할 수 있습니다.
```
% kubectl get --raw /metrics | grep 'apiserver_flowcontrol_current_inqueue_requests.*workload-low'
apiserver_flowcontrol_current_inqueue_requests{flow_schema="service-accounts",priority_level="workload-low"} 10
```
기타 유용한 Prometheus 측정항목은 다음과 같습니다:
- apiserver_flowcontrol_dispatched_requests_total
- apiserver_flowcontrol_request_execution_seconds
- apiserver_flowcontrol_request_wait_duration_seconds
[APF 지표](https://kubernetes.io/docs/concepts/cluster-administration/flow-control/#observability)의 전체 목록은 업스트림 문서를 참조하세요.
### 삭제된 요청 방지
#### 워크로드를 변경하여 429를 방지
APF가 허용된 최대 내부 요청 수를 초과하는 지정된 PriorityLevelConfiguration으로 인해 요청을 삭제하는 경우 영향을 받는 FlowSchemas의 클라이언트는 지정된 시간에 실행되는 요청 수를 줄일 수 있습니다. 이는 429가 발생하는 기간 동안 이루어진 총 요청 수를 줄임으로써 달성할 수 있습니다. 비용이 많이 드는 목록 호출과 같은 장기 실행 요청은 실행되는 전체 기간 동안 진행 중인 요청으로 계산되기 때문에 특히 문제가 됩니다. 비용이 많이 드는 요청 수를 줄이거나 목록 호출의 대기 시간을 최적화하면(예: 요청 당 가져오는 객체 수를 줄이거나 watch 요청을 사용하도록 전환) 해당 워크로드에 필요한 총 동시성을 줄이는 데 도움이 될 수 있습니다.
#### APF 설정을 변경하여 429를 방지
!!! warning
수행 중인 작업을 알고 있는 경우에만 기본 APF 설정을 변경하십시오. APF 설정이 잘못 구성되면 API Server 요청이 중단되고 워크로드가 크게 중단될 수 있습니다.
요청 삭제를 방지하기 위한 또 다른 접근 방식은 EKS 클러스터에 설치된 기본 FlowSchemas 또는 PriorityLevelConfigurations를 변경하는 것입니다. EKS는 지정된 쿠버네티스 마이너 버전에 대한 FlowSchemas 및 PriorityLevelConfigurations의 업스트림 기본 설정을 설치합니다. API는 객체에 대한 다음 주석이 false로 설정되지 않은 한 이러한 객체를 기본값으로 자동으로 다시 조정합니다.
```
metadata:
annotations:
apf.kubernetes.io/autoupdate-spec: "false"
```
높은 수준에서 APF 설정은 다음 중 하나로 수정될 수 있습니다.
- 관심 있는 요청에 더 많은 기내 수용 능력을 할당하세요.
- 다른 요청 유형에 대한 용량이 부족할 수 있는 비필수적이거나 비용이 많이 드는 요청을 격리합니다.
이는 기본 FlowSchemas 및 PriorityLevelConfigurations를 변경하거나 이러한 유형의 새 개체를 생성하여 수행할 수 있습니다. 관리자는 관련 PriorityLevelConfigurations 개체에 대한 authenticateConcurrencyShares 값을 늘려 할당되는 진행 중 요청 비율을 늘릴 수 있습니다. 또한 요청이 발송되기 전에 대기열에 추가되어 발생하는 추가 대기 시간을 애플리케이션에서 처리할 수 있는 경우 특정 시간에 대기열에 추가할 수 있는 요청 수도 늘어날 수 있습니다.
또는 고객의 워크로드에 맞는 새로운 FlowSchema 및 PriorityLevelConfigurations 개체를 생성할 수 있습니다. 기존 PriorityLevelConfigurations 또는 새로운 PriorityLevelConfigurations에 더 많은 secureConcurrencyShares를 할당하면 전체 한도가 API Server 당 600개로 유지되므로 다른 버킷에서 처리할 수 있는 요청 수가 줄어듭니다.
APF 기본값을 변경할 때 설정 변경으로 인해 의도하지 않은 429가 발생하지 않도록 비프로덕션 클러스터에서 이러한 측정항목을 모니터링해야 합니다.
1. 버킷이 요청 삭제를 시작하지 않도록 모든 FlowSchemas에 대해 `apiserver_flowcontrol_rejected_requests_total`에 대한 측정 지표를 모니터링해야 합니다.
2. `apiserver_flowcontrol_request_concurrency_limit` 및 `apiserver_flowcontrol_request_concurrency_in_use` 값을 비교하여 사용 중인 동시성이 해당 우선순위 수준의 제한을 위반할 위험이 없는지 확인해야 합니다.
새로운 FlowSchema 및 PriorityLevelConfiguration을 정의하는 일반적인 사용 사례 중 하나는 격리입니다. 파드에서 장기 실행 목록 이벤트 호출을 자체 요청 공유로 분리한다고 가정해 보겠습니다. 이렇게 하면 기존 서비스 계정 FlowSchema를 사용하는 파드의 중요한 요청이 429를 수신하여 요청 용량이 부족해지는 것을 방지할 수 있습니다. 진행 중인 요청의 총 개수는 유한하지만 이 예에서는 APF 설정을 수정하여 지정된 워크로드에 대한 요청 용량을 더 잘 나눌 수 있음을 보여줍니다.
List 이벤트 요청을 분리하기 위한 FlowSchema 객체의 예:
```
apiVersion: flowcontrol.apiserver.k8s.io/v1beta1
kind: FlowSchema
metadata:
name: list-events-default-service-accounts
spec:
distinguisherMethod:
type: ByUser
matchingPrecedence: 8000
priorityLevelConfiguration:
name: catch-all
rules:
- resourceRules:
- apiGroups:
- '*'
namespaces:
- default
resources:
- events
verbs:
- list
subjects:
- kind: ServiceAccount
serviceAccount:
name: default
namespace: default
```
- 이 FlowSchema는 기본 네임스페이스의 Service Account에서 수행된 모든 List 이벤트 호출을 캡처합니다.
- 일치 우선 순위 8000은 기존 Service Account FlowSchema에서 사용하는 값 9000보다 낮으므로 이러한 List 이벤트 호출은 Service Account가 아닌 list-events-default-service-account와 일치합니다.
- 이러한 요청을 격리하기 위해 포괄적인 PriorityLevelConfiguration을 사용하고 있습니다. 이 버킷은 장기 실행되는 list 이벤트 호출에서 13개의 진행 중인 요청만 사용할 수 있도록 허용합니다. 파드는 동시에 13개 이상의 요청을 발행하려고 시도하지만 즉시 429를 응답받기 시작합니다.
## API Server에서 리소스 검색
API Server에서 정보를 가져오는 것은 모든 규모의 클러스터에서 예상되는 동작입니다. 클러스터의 리소스 수를 확장하면 요청 빈도와 데이터 볼륨이 빠르게 컨트롤 플레인의 병목 현상이 되어 API 쓰로틀링 및 속도 저하로 이어질 수 있습니다. 지연 시간의 심각도에 따라 주의하지 않으면 예상치 못한 다운타임이 발생할 수 있습니다.
이러한 유형의 문제를 방지하기 위한 첫 번째 단계는 무엇을 요청하고 얼마나 자주 요청하는지 파악하는 것입니다. 다음은 규모 조정 모범 사례에 따라 쿼리 양을 제한하는 지침입니다. 이 섹션의 제안 사항은 확장성이 가장 좋은 것으로 알려진 옵션부터 순서대로 제공됩니다.
### Shared Informers 사용
쿠버네티스 API와 통합되는 컨트롤러 및 자동화를 구축할 때 쿠버네티스 리소스에서 정보를 가져와야 하는 경우가 많습니다. 이러한 리소스를 정기적으로 폴링하면 API Server에 상당한 부하가 발생할 수 있습니다.
client-go 라이브러리의 [informer](https://pkg.go.dev/k8s.io/client-go/informers) 를 사용하면 변경 사항을 폴링하는 대신 이벤트를 기반으로 리소스의 변경 사항을 관찰할 수 있다는 이점이 있습니다. Shared Informer는 이벤트 및 변경 사항에 공유 캐시를 사용하여 부하를 더욱 줄이므로 동일한 리소스를 감시하는 여러 컨트롤러로 인해 추가 부하가 가중되지 않습니다.
컨트롤러는 특히 대규모 클러스터의 경우 label 및 field selectors 없이 클러스터 전체 리소스를 폴링하지 않아야 합니다. 필터링되지 않은 각 폴링에는 클라이언트가 필터링하기 위해 etcd에서 API Server를 통해 많은 양의 불필요한 데이터를 전송해야 합니다. 레이블과 네임스페이스를 기반으로 필터링하면 API 서버가 요청을 처리하고 클라이언트에 전송되는 데이터를 처리하기 위해 수행해야 하는 작업량을 줄일 수 있습니다.
### 쿠버네티스 API 사용 최적화
사용자 정의 컨트롤러 또는 자동화를 사용하여 쿠버네티스 API를 호출할 때 필요한 리소스로만 호출을 제한하는 것이 중요합니다. 제한이 없으면 API Server 및 etcd에 불필요한 로드가 발생할 수 있습니다.
가능하면 watch 인자를 사용하는 것이 좋습니다. 인자가 없으면 기본 동작은 객체를 나열하는 것입니다. list 대신 watch를 사용하려면 API 요청 끝에 `?watch=true`를 추가하면 됩니다. 예를 들어 watch를 사용하여 기본 네임스페이스의 모든 파드를 가져오려면 다음을 사용하세요.
```
/api/v1/namespaces/default/pods?watch=true
```
객체를 나열하는 경우 나열하는 항목의 범위와 반환되는 데이터의 양을 제한해야 합니다. 요청에 `limit=500` 인수를 추가하여 반환되는 데이터를 제한할 수 있습니다. `fieldSelector` 인수와 `/namespace/` 경로는 목록의 범위를 필요에 따라 좁게 지정하는 데 유용할 수 있습니다. 예를 들어 기본 네임스페이스에서 실행 중인 파드만 나열하려면 다음 API 경로와 인수를 사용합니다.
```
/api/v1/namespaces/default/pods?fieldSelector=status.phase=Running&limit=500
```
또는 다음을 사용하여 실행 중인 모든 파드를 나열합니다.
```
/api/v1/pods?fieldSelector=status.phase=Running&limit=500
```
나열된 오브젝트를 제한하는 또 다른 옵션은 [`ResourceVersions` (쿠버네티스 설명서 참조)](https://kubernetes.io/docs/reference/using-api/api-concepts/#resource-versions)를 사용하는 것 입니다. `ResourceVersion` 인자가 없으면 사용 가능한 최신 버전을 받게 되며, 이 경우 데이터베이스에서 가장 비용이 많이 들고 가장 느린 etcd 쿼럼 읽기가 필요합니다. resourceVersion은 쿼리하려는 리소스에 따라 달라지며, `Metadata.Resourceversion` 필드에서 찾을 수 있습니다.
API Server 캐시에서 결과를 반환하는 특별한 `ResourceVersion=0`이 있습니다. 이렇게 하면 etcd 부하를 줄일 수 있지만 Pagination은 지원하지 않습니다.
```
/api/v1/namespaces/default/pods?resourceVersion=0
```
인자 없이 API를 호출하면 API Server 및 etcd에서 리소스를 가장 많이 사용하게 됩니다.이 호출을 사용하면 Pagination이나 범위 제한 없이 모든 네임스페이스의 모든 파드를 가져오고 etcd에서 쿼럼을 읽어야 합니다.
```
/api/v1/pods
``` | eks | search exclude true API Server Controller Manager Scheduler EKS 1 24 EKS 1 24 docker containerd https containerd io Containerd Containerd EKS 1 24 Containerd container runtime bootstrap flag https docs aws amazon com eks latest userguide eks optimized ami html containerd bootstrap Attention API 1000 1100 4000 4500 EKS EKS EKS https aws amazon com blogs containers amazon eks control plane auto scaling enhancements improve speed by 4x CPU HPA Horizontal Pod Autoscaler https kubernetes io docs tasks run application horizontal pod autoscale walkthrough autoscaling on multiple metrics and custom metrics AWS SQS KEDA https keda sh Karpenter Time To Live TTL https aws github io aws eks best practices karpenter use timers ttl to automatically delete nodes from the cluster max instance lifetime GitHub https github com aws containers roadmap issues 1190 scale down utilization threshold https github com kubernetes autoscaler blob master cluster autoscaler FAQ md how does scale down work Cluster Autoscaler Karpenter ttlSecondsAfterEmpty Pod Distruption Budgets EndpointSlices API Server Pod Distruption Budgets https kubernetes io docs concepts workloads pods disruptions Kubectl kubectl API Server kubectl for kubectl API 10 kubectl API API cache dir kubectl Compression kubeconfig kubectl compression API CPU CPU kubeconfig disable compression true disable compression true apiVersion v1 clusters cluster server serverURL disable compression true name cluster Cluster Autoscaler Cluster Autoscaler https github com kubernetes autoscaler blob master cluster autoscaler proposals scalability tests md 1 000 1000 Cluster AutoScaler 4 2 ClusterAutoscaler 1 autoscalingGroups name eks core node grp 20220823190924690000000011 80c1660e 030d 476d cb0d d04d585a8fcb maxSize 50 minSize 2 name eks data m1 20220824130553925600000011 5ec167fa ca93 8ca4 53a5 003e1ed8d306 maxSize 450 minSize 2 name eks data m2 20220824130733258600000015 aac167fb 8bf7 429d d032 e195af4e25f5 maxSize 450 minSize 2 name eks data m3 20220824130553914900000003 18c167fa ca7f 23c9 0fea f9edefbda002 maxSize 450 minSize 2 ClusterAutoscaler 2 autoscalingGroups name eks data m4 2022082413055392550000000f 5ec167fa ca86 6b83 ae9d 1e07ade3e7c4 maxSize 450 minSize 2 name eks data m5 20220824130744542100000017 02c167fb a1f7 3d9e a583 43b4975c050c maxSize 450 minSize 2 name eks data m6 2022082413055392430000000d 9cc167fa ca94 132a 04ad e43166cef41f maxSize 450 minSize 2 name eks data m7 20220824130553921000000009 96c167fa ca91 d767 0427 91c879ddf5af maxSize 450 minSize 2 API Priority and Fairness images APF jpg iframe width 560 height 315 src https www youtube com embed YnPPHBawhE0 title YouTube video player frameborder 0 allow accelerometer autoplay clipboard write encrypted media gyroscope picture in picture web share allowfullscreen iframe API API Too many requests 429 HTTP API Priority and Fairness https kubernetes io docs concepts cluster administration flow control API max requests inflight max mutating requests inflight EKS 400 200 600 APF 600 EKS 2 API 1200 PriorityLevelConfigurations FlowSchemas API EKS PriorityLevelConfigurations PriorityLevelConfiguration 600 98 PriorityLevelConfigurations 600 API Server 600 PriorityLevelConfigurations EKS 1 24 kubectl get raw metrics grep apiserver flowcontrol request concurrency limit apiserver flowcontrol request concurrency limit priority level catch all 13 apiserver flowcontrol request concurrency limit priority level global default 49 apiserver flowcontrol request concurrency limit priority level leader election 25 apiserver flowcontrol request concurrency limit priority level node high 98 apiserver flowcontrol request concurrency limit priority level system 74 apiserver flowcontrol request concurrency limit priority level workload high 98 apiserver flowcontrol request concurrency limit priority level workload low 245 FlowSchemas API FlowSchema API Group FlowSchema PriorityLevelConfiguration inflight API Server FlowSchemas FlowSchemas FlowSchemas API Server FlowSchema FlowSchemas PriorityLevelConfigurations kubectl get flowschemas NAME PRIORITYLEVEL MATCHINGPRECEDENCE DISTINGUISHERMETHOD AGE MISSINGPL exempt exempt 1 none 7h19m False eks exempt exempt 2 none 7h19m False probes exempt 2 none 7h19m False system leader election leader election 100 ByUser 7h19m False endpoint controller workload high 150 ByUser 7h19m False workload leader election leader election 200 ByUser 7h19m False system node high node high 400 ByUser 7h19m False system nodes system 500 ByUser 7h19m False kube controller manager workload high 800 ByNamespace 7h19m False kube scheduler workload high 800 ByNamespace 7h19m False kube system service accounts workload high 900 ByNamespace 7h19m False eks workload high workload high 1000 ByUser 7h14m False service accounts workload low 9000 ByUser 7h19m False global default global default 9900 ByUser 7h19m False catch all catch all 10000 ByUser 7h19m False PriorityLevelConfigurations Queue Reject Exempt Queue Reject PriorityLevelConfiguration Queue kube system 98 Queue API Server 98 API Server 429 429 Reject PriorityLevelConfiguration FlowSchema 13 API Server 429 Exempt PriorityLevelConfiguration 429 healthz system masters APF APF apiserver flowcontrol rejected requests total API Server FlowSchemas PriorityLevelConfigurations service account FlowSchema 100 kubectl get raw metrics grep apiserver flowcontrol rejected requests total apiserver flowcontrol rejected requests total flow schema service accounts priority level workload low reason time out 100 PriorityLevelConfiguration 429 100 kubectl get raw metrics grep apiserver flowcontrol request concurrency limit workload low apiserver flowcontrol request concurrency limit priority level workload low 245 kubectl get raw metrics grep apiserver flowcontrol request concurrency in use workload low apiserver flowcontrol request concurrency in use flow schema service accounts priority level workload low 145 PriorityLevelConfiguration apiserver flowcontrol current inqueue requests kubectl get raw metrics grep apiserver flowcontrol current inqueue requests workload low apiserver flowcontrol current inqueue requests flow schema service accounts priority level workload low 10 Prometheus apiserver flowcontrol dispatched requests total apiserver flowcontrol request execution seconds apiserver flowcontrol request wait duration seconds APF https kubernetes io docs concepts cluster administration flow control observability 429 APF PriorityLevelConfiguration FlowSchemas 429 watch APF 429 warning APF APF API Server EKS FlowSchemas PriorityLevelConfigurations EKS FlowSchemas PriorityLevelConfigurations API false metadata annotations apf kubernetes io autoupdate spec false APF FlowSchemas PriorityLevelConfigurations PriorityLevelConfigurations authenticateConcurrencyShares FlowSchema PriorityLevelConfigurations PriorityLevelConfigurations PriorityLevelConfigurations secureConcurrencyShares API Server 600 APF 429 1 FlowSchemas apiserver flowcontrol rejected requests total 2 apiserver flowcontrol request concurrency limit apiserver flowcontrol request concurrency in use FlowSchema PriorityLevelConfiguration FlowSchema 429 APF List FlowSchema apiVersion flowcontrol apiserver k8s io v1beta1 kind FlowSchema metadata name list events default service accounts spec distinguisherMethod type ByUser matchingPrecedence 8000 priorityLevelConfiguration name catch all rules resourceRules apiGroups namespaces default resources events verbs list subjects kind ServiceAccount serviceAccount name default namespace default FlowSchema Service Account List 8000 Service Account FlowSchema 9000 List Service Account list events default service account PriorityLevelConfiguration list 13 13 429 API Server API Server API Shared Informers API API Server client go informer https pkg go dev k8s io client go informers Shared Informer label field selectors etcd API Server API API API API Server etcd watch list watch API watch true watch api v1 namespaces default pods watch true limit 500 fieldSelector namespace API api v1 namespaces default pods fieldSelector status phase Running limit 500 api v1 pods fieldSelector status phase Running limit 500 ResourceVersions https kubernetes io docs reference using api api concepts resource versions ResourceVersion etcd resourceVersion Metadata Resourceversion API Server ResourceVersion 0 etcd Pagination api v1 namespaces default pods resourceVersion 0 API API Server etcd Pagination etcd api v1 pods |
eks exclude true EC2 API search | ---
search:
exclude: true
---
# 쿠버네티스 데이터 플레인
쿠버네티스 데이터 플레인은 쿠버네티스 컨트롤 플레인이 사용하는 EC2 인스턴스, 로드 밸런서, 스토리지 및 기타 API를 포함합니다. 조직화를 위해 [클러스터 서비스](./cluster-services.md)를 별도의 페이지로 그룹화했으며 로드 밸런서 확장은 [워크로드 섹션](./workloads.md)에서 찾을 수 있습니다. 이 섹션에서는 컴퓨팅 리소스 확장에 중점을 둡니다.
여러 워크로드가 있는 클러스터에서는 EC2 인스턴스 유형을 선택하는 것이 고객이 직면하는 가장 어려운 결정 중 하나일 수 있습니다. 모든 상황에 맞는 단일 솔루션은 없습니다. 다음은 컴퓨팅 확장과 관련된 일반적인 위험을 방지하는 데 도움이 되는 몇 가지 팁입니다.
## 자동 노드 오토 스케일링
수고를 줄이고 쿠버네티스와 긴밀하게 통합되는 노드 오토 스케일링을 사용하는 것이 좋습니다. 대규모 클러스터에는 [관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html) 및 [Karpenter](https://karpenter.sh/) 를 사용하는 것이 좋습니다.
관리형 노드 그룹은 관리형 업그레이드 및 구성에 대한 추가 이점과 함께 Amazon EC2 Auto Scaling 그룹의 유연성을 제공합니다. [쿠버네티스 Cluster Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler)를 사용하여 확장할 수 있으며 다양한 컴퓨팅 요구 사항이 있는 클러스터에 대한 일반적인 옵션입니다.
Karpenter는 AWS에서 만든 오픈 소스 워크로드 네이티브 노드 오토 스케일러입니다. 노드 그룹을 관리하지 않고도 리소스 (예: GPU) 와 taint 및 tolerations (예: zone spread)에 대한 워크로드 요구 사항을 기반으로 클러스터의 노드를 확장합니다. 노드는 EC2로부터 직접 생성되므로 기본 노드 그룹 할당량 (그룹당 450개 노드)이 필요 없으며 운영 오버헤드를 줄이면서 인스턴스 선택 유연성이 향상됩니다. 고객은 가능하면 Karpenter를 사용하는 것이 좋습니다.
## 다양한 EC2 인스턴스 유형 사용
각 AWS 리전에는 인스턴스 유형별로 사용 가능한 인스턴스 수가 제한되어 있습니다. 하나의 인스턴스 유형만 사용하는 클러스터를 생성하고 리전의 용량을 초과하여 노드 수를 확장하면 사용 가능한 인스턴스가 없다는 오류가 발생합니다. 이 문제를 방지하려면 클러스터에서 사용할 수 있는 인스턴스 유형을 임의로 제한해서는 안 됩니다.
Karpenter는 기본적으로 호환되는 다양한 인스턴스 유형을 사용하며 보류 중인 워크로드 요구 사항, 가용성 및 비용을 기반으로 프로비저닝 시 인스턴스를 선택합니다. [NodePools](https://karpenter.sh/docs/concepts/nodepools/#instance-types)의 `karpenter.k8s.aws/instance-category` 키에 사용되는 인스턴스 유형 목록을 정의할 수 있습니다.
쿠버네티스 Cluster Autoscaler를 사용하려면 노드 그룹이 일관되게 확장될 수 있도록 유사한 크기의 유형을 필요로 합니다. CPU 및 메모리 크기를 기준으로 여러 그룹을 생성하고 독립적으로 확장해야 합니다. [ec2-instance-selector](https://github.com/aws/amazon-ec2-instance-selector)를 사용하여 노드 그룹과 비슷한 크기의 인스턴스를 식별하세요.
```
ec2-instance-selector --service eks --vcpus-min 8 --memory-min 16
a1.2xlarge
a1.4xlarge
a1.metal
c4.4xlarge
c4.8xlarge
c5.12xlarge
c5.18xlarge
c5.24xlarge
c5.2xlarge
c5.4xlarge
c5.9xlarge
c5.metal
```
## API 서버 부하를 줄이기 위해 더 큰 노드를 선호
어떤 인스턴스 유형을 사용할지 결정할 때 노드 수가 적고 크면 쿠버네티스 컨트롤 플레인에 걸리는 부하가 줄어듭니다. 실행 중인 kubelet과 데몬셋의 수가 줄어들기 때문입니다. 그러나 큰 노드는 작은 노드처럼 충분히 활용되지 않을 수 있습니다. 노드 크기는 워크로드의 가용성 및 확장성을 기반으로 평가해야 합니다.
u-24tb1.metal 인스턴스 3개 (24TB Memory 및 448 cores)가 있는 클러스터에는 3개의 kubelets가 있으며 기본적으로 노드당 110개의 파드로 제한됩니다. 파드가 각각 4개의 코어를 사용하는 경우 이는 예상할 수 있습니다 (4코어 x 110 = 노드당 440코어). 클러스터에 3개의 노드를 사용하면 인스턴스 1개가 중단될 때 클러스터의 1/3에 영향을 미칠 수 있으므로 인스턴스 인시던트를 처리하는 능력이 떨어집니다. 쿠버네티스 스케줄러가 워크로드를 적절하게 배치할 수 있도록 워크로드에 노드 요구 사항과 pod spread를 지정해야 합니다.
워크로드는 taint, tolerations 및 [PodTopologySpread](https://kubernetes.io/blog/2020/05/introducing-podtopologyspread/)를 통해 필요한 리소스와 필요한 가용성을 정의해야 합니다. 이들은 컨트롤 플레인의 부하 감소, 운영 감소, 비용 절감이라는 가용성 목표를 충분히 활용할 수 있고 가용성 목표를 충족할 수 있는 가장 큰 노드를 선호해야 합니다.
쿠버네티스 Scheduler는 리소스를 사용할 수 있는 경우 가용 영역과 호스트에 워크로드를 자동으로 분산하려고 합니다. 사용 가능한 용량이 없는 경우 쿠버네티스 Cluster Autoscaler는 각 가용 영역에 노드를 균등하게 추가하려고 시도합니다. 워크로드에 다른 요구 사항이 지정되어 있지 않는 한 Karpenter는 가능한 한 빠르고 저렴하게 노드를 추가하려고 시도합니다.
스케줄러를 통해 워크로드를 분산시키고 가용 영역 전체에 새 노드를 생성하도록 하려면 TopologySpreadConstraints (topologySpreadConstraints) 를 사용해야 합니다.
```
spec:
topologySpreadConstraints:
- maxSkew: 3
topologyKey: "topology.kubernetes.io/zone"
whenUnsatisfiable: ScheduleAnyway
labelSelector:
matchLabels:
dev: my-deployment
- maxSkew: 2
topologyKey: "kubernetes.io/hostname"
whenUnsatisfiable: ScheduleAnyway
labelSelector:
matchLabels:
dev: my-deployment
```
## 일관된 워크로드 성능을 위해 유사한 노드 크기 사용
워크로드는 일관된 성능과 예측 가능한 확장을 허용하기 위해 실행해야 하는 노드 크기를 정의해야 합니다. 500m CPU를 요청하는 워크로드는 4 cores 인스턴스와 16 cores 인스턴스에서 다르게 수행됩니다. T 시리즈 인스턴스와 같이 버스트 가능한 CPU를 사용하는 인스턴스 유형은 피하세요.
워크로드가 일관된 성능을 얻을 수 있도록 워크로드는 [지원되는 Karpenter 레이블](https://karpenter.sh/docs/concepts/scheduling/#labels)을 사용하여 특정 인스턴스 크기를 대상으로 할 수 있습니다.
```
kind: deployment
...
spec:
template:
spec:
containers:
nodeSelector:
karpenter.k8s.aws/instance-size: 8xlarge
```
쿠버네티스 Cluster Autoscaler를 사용하여 클러스터에서 스케줄링되는 워크로드는 레이블 매칭을 기반으로 node selector를 노드 그룹과 일치시켜야 합니다.
```
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: eks.amazonaws.com/nodegroup
operator: In
values:
- 8-core-node-group # match your node group name
```
## 컴퓨팅 리소스를 효율적으로 사용
컴퓨팅 리소스에는 EC2 인스턴스 및 가용 영역이 포함됩니다. 컴퓨팅 리소스를 효과적으로 사용하면 확장성, 가용성, 성능이 향상되고 총 비용이 절감됩니다. 오토 스케일링 환경에서 여러 애플리케이션은 효율적인 리소스 사용량을 예측하기가 극히 어렵습니다. [Karpenter](https://karpenter.sh/)는 워크로드 요구 사항에 따라 온디맨드로 인스턴스를 프로비저닝하여 활용도와 유연성을 극대화하기 위해 만들어졌습니다.
Karpenter를 사용하면 먼저 노드 그룹을 생성하거나 특정 노드에 대한 label taint를 구성하지 않고도 워크로드에 필요한 컴퓨팅 리소스 유형을 선언할 수 있습니다. 자세한 내용은 [Karpenter best practices](https://aws.github.io/aws-eks-best-practices/karpenter/)를 참조하세요. Karpenter provisioner에서 [consolidation](https://aws.github.io/aws-eks-best-practices/karpenter/#configure-requestslimits-for-all-non-cpu-resources-when-using-consolidation)을 활성화하여 활용도가 낮은 노드를 교체해 보세요.
## Amazon Machine Image (AMI) 업데이트 자동화
Worker 노드 구성 요소를 최신 상태로 유지하면 최신 보안 패치와 쿠버네티스 API와 호환되는 기능을 사용할 수 있습니다. kublet 업데이트는 쿠버네티스 기능의 가장 중요한 구성 요소이지만 OS, 커널 및 로컬에 설치된 애플리케이션 패치를 자동화하면 확장에 따른 유지 관리 비용을 줄일 수 있습니다.
노드 이미지에는 최신 [Amazon EKS optimized Amazon Linux 2](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-ami.html) 또는 [Amazon EKS optimized Bottlerocket AMI](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-ami-bottlerocket.html)를 사용하는 것이 좋습니다. Karpenter는 [사용 가능한 최신 AMI](https://karpenter.sh/docs/concepts/nodepools/#instance-types) 를 자동으로 사용하여 클러스터에 새 노드를 프로비저닝합니다. 관리형 노드 그룹은 [노드 그룹 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/update-managed-node-group.html) 중에 AMI를 업데이트하지만 노드 프로비저닝 시에는 AMI ID를 업데이트하지 않습니다.
관리형 노드 그룹의 경우 패치 릴리스에 사용할 수 있게 되면 Auto Scaling Group (ASG) 시작 템플릿을 새 AMI ID로 업데이트해야 합니다. AMI 마이너 버전 (예: 1.23.5~1.24.3)은 EKS 콘솔 및 API에서 [노드 그룹 업그레이드](https://docs.aws.amazon.com/eks/latest/userguide/update-managed-node-group.html)로 제공됩니다. 패치 릴리스 버전 (예: 1.23.5 ~ 1.23.6)은 노드 그룹에 대한 업그레이드로 제공되지 않습니다. AMI 패치 릴리스를 통해 노드 그룹을 최신 상태로 유지하려면 새 시작 템플릿 버전을 생성하고 노드 그룹이 인스턴스를 새 AMI 릴리스로 교체하도록 해야 합니다.
[이 페이지](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-ami.html) 에서 사용 가능한 최신 AMI를 찾거나 AWS CLI를 사용할 수 있습니다.
```
aws ssm get-parameter \
--name /aws/service/eks/optimized-ami/1.24/amazon-linux-2/recommended/image_id \
--query "Parameter.Value" \
--output text
```
## 컨테이너에 여러 EBS 볼륨 사용
EBS 볼륨에는 볼륨 유형 (예: gp3) 및 디스크 크기에 따른 입/출력 (I/O) 할당량이 있습니다. 애플리케이션이 호스트와 단일 EBS 루트 볼륨을 공유하는 경우 전체 호스트의 디스크 할당량이 고갈되고 다른 애플리케이션이 가용 용량을 기다리게 될 수 있습니다.응 용 프로그램은 오버레이 파티션에 파일을 쓰고, 호스트에서 로컬 볼륨을 마운트하고, 사용된 로깅 에이전트에 따라 표준 출력 (STDOUT)에 로그온할 때도 디스크에 기록합니다.
Disk I/O 소모를 방지하려면 두 번째 볼륨을 컨테이너 state 폴더 (예: /run/containerd)에 마운트하고, 워크로드 스토리지용으로 별도의 EBS 볼륨을 사용하고, 불필요한 로컬 로깅을 비활성화해야 합니다.
[eksctl](https://eksctl.io/)을 사용하여 EC2 인스턴스에 두 번째 볼륨을 마운트하려면 다음과 같은 구성의 노드 그룹을 사용할 수 있습니다.
```
managedNodeGroups:
- name: al2-workers
amiFamily: AmazonLinux2
desiredCapacity: 2
volumeSize: 80
additionalVolumes:
- volumeName: '/dev/sdz'
volumeSize: 100
preBootstrapCommands:
- |
"systemctl stop containerd"
"mkfs -t ext4 /dev/nvme1n1"
"rm -rf /var/lib/containerd/*"
"mount /dev/nvme1n1 /var/lib/containerd/"
"systemctl start containerd"
```
Terraform을 사용하여 노드 그룹을 프로비저닝하는 경우 [EKS Blueprints for terraform](https://aws-ia.github.io/terraform-aws-eks-blueprints/patterns/stateful/#eks-managed-nodegroup-w-multiple-volumes)의 예를 참조하세요. Karpenter를 사용하여 노드를 프로비저닝하는 경우 노드 사용자 데이터와 함께 [`blockDeviceMappings`](https://karpenter.sh/docs/concepts/nodeclasses/#specblockdevicemappings)를 사용하여 추가 볼륨을 추가할 수 있습니다.
EBS 볼륨을 파드에 직접 탑재하려면 [AWS EBS CSI 드라이버](https://github.com/kubernetes-sigs/aws-ebs-csi-driver)를 사용하고 스토리지 클래스가 있는 볼륨을 사용해야 합니다.
```
---
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: ebs-sc
provisioner: ebs.csi.aws.com
volumeBindingMode: WaitForFirstConsumer
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: ebs-claim
spec:
accessModes:
- ReadWriteOnce
storageClassName: ebs-sc
resources:
requests:
storage: 4Gi
---
apiVersion: v1
kind: Pod
metadata:
name: app
spec:
containers:
- name: app
image: public.ecr.aws/docker/library/nginx
volumeMounts:
- name: persistent-storage
mountPath: /data
volumes:
- name: persistent-storage
persistentVolumeClaim:
claimName: ebs-claim
```
## 워크로드에서 EBS 볼륨을 사용하는 경우 EBS 연결 제한이 낮은 인스턴스를 피하세요.
EBS는 워크로드가 영구 스토리지를 확보하는 가장 쉬운 방법 중 하나이지만 확장성 제한도 있습니다. 각 인스턴스 유형에는 [연결할 수 있는 최대 EBS 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/volume_limits.html) 수가 있습니다. 워크로드는 실행해야 하는 인스턴스 유형을 선언하고 쿠버네티스 taints가 있는 단일 인스턴스의 복제본 수를 제한해야 합니다.
## 디스크에 불필요한 로깅을 비활성화
프로덕션 환경에서 디버그 로깅을 사용하여 애플리케이션을 실행하지 않고 디스크를 자주 읽고 쓰는 로깅을 비활성화하여 불필요한 로컬 로깅을 피하세요. Journald는 로그 버퍼를 메모리에 유지하고 주기적으로 디스크에 플러시하는 로컬 로깅 서비스입니다. Journald는 모든 행을 즉시 디스크에 기록하는 syslog보다 선호됩니다. syslog를 비활성화하면 필요한 총 스토리지 용량도 줄어들고 복잡한 로그 순환 규칙이 필요하지 않습니다. syslog를 비활성화하려면 cloud-init 구성에 다음 코드 조각을 추가하면 됩니다.
```
runcmd:
- [ systemctl, disable, --now, syslog.service ]
```
## OS 업데이트 속도가 필요할 때 in place 방식으로 인스턴스 패치
!!! Attention
인스턴스 패치는 필요한 경우에만 수행해야 합니다. Amazon에서는 인프라를 변경할 수 없는 것으로 취급하고 애플리케이션과 동일한 방식으로 하위 환경을 통해 승격되는 업데이트를 철저히 테스트할 것을 권장합니다. 이 섹션은 이것이 불가능할 때 적용됩니다.
컨테이너화된 워크로드를 중단하지 않고 기존 Linux 호스트에 패키지를 설치하는 데 몇 초 밖에 걸리지 않습니다. 인스턴스를 차단(cordoning), 드레이닝(draining) 또는 교체(replacing)하지 않고도 패키지를 설치하고 검증할 수 있습니다.
인스턴스를 교체하려면 먼저 새 AMI를 생성, 검증 및 배포해야 합니다. 인스턴스에는 대체 인스턴스가 생성되어야 하며, 이전 인스턴스는 차단 및 제거되어야 합니다. 그런 다음 새 인스턴스에 워크로드를 생성하고 확인하고 패치가 필요한 모든 인스턴스에 대해 반복해야 합니다. 워크로드를 중단하지 않고 인스턴스를 안전하게 교체하려면 몇 시간, 며칠 또는 몇 주가 걸립니다.
Amazon에서는 자동화된 선언적 시스템에서 구축, 테스트 및 승격되는 불변 인프라를 사용할 것을 권장합니다. 하지만 시스템에 신속하게 패치를 적용해야 하는 경우 시스템을 패치하고 새 AMI가 출시되면 교체해야 합니다. 시스템 패치와 교체 사이의 시간 차이가 크기 때문에 [AWS Systems Manager Patch Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-patch.html)를 사용하는 것이 좋습니다. 필요한 경우 노드 패치를 자동화합니다.
노드 패치를 사용하면 보안 업데이트를 신속하게 출시하고 AMI가 업데이트된 후 정기적인 일정에 따라 인스턴스를 교체할 수 있습니다. [Flatcar Container Linux](https://platcar-linux.org/) 또는 [Bottlerocket OS](https://github.com/bottlerocket-os/bottlerocket)와 같은 읽기 전용 루트 파일 시스템이 있는 운영 체제를 사용하는 경우 해당 운영 체제에서 작동하는 업데이트 연산자를 사용하는 것이 좋습니다. [Flatcar Linux update operator](https://github.com/platcar/platcar-linux-update-operator) 및 [Bottlerocket update operator](https://github.com/bottlerocket-os/bottlerocket-update-operator)는 인스턴스를 재부팅하여 노드를 자동으로 최신 상태로 유지합니다. | eks | search exclude true EC2 API cluster services md workloads md EC2 https docs aws amazon com eks latest userguide managed node groups html Karpenter https karpenter sh Amazon EC2 Auto Scaling Cluster Autoscaler https github com kubernetes autoscaler tree master cluster autoscaler Karpenter AWS GPU taint tolerations zone spread EC2 450 Karpenter EC2 AWS Karpenter NodePools https karpenter sh docs concepts nodepools instance types karpenter k8s aws instance category Cluster Autoscaler CPU ec2 instance selector https github com aws amazon ec2 instance selector ec2 instance selector service eks vcpus min 8 memory min 16 a1 2xlarge a1 4xlarge a1 metal c4 4xlarge c4 8xlarge c5 12xlarge c5 18xlarge c5 24xlarge c5 2xlarge c5 4xlarge c5 9xlarge c5 metal API kubelet u 24tb1 metal 3 24TB Memory 448 cores 3 kubelets 110 4 4 x 110 440 3 1 1 3 pod spread taint tolerations PodTopologySpread https kubernetes io blog 2020 05 introducing podtopologyspread Scheduler Cluster Autoscaler Karpenter TopologySpreadConstraints topologySpreadConstraints spec topologySpreadConstraints maxSkew 3 topologyKey topology kubernetes io zone whenUnsatisfiable ScheduleAnyway labelSelector matchLabels dev my deployment maxSkew 2 topologyKey kubernetes io hostname whenUnsatisfiable ScheduleAnyway labelSelector matchLabels dev my deployment 500m CPU 4 cores 16 cores T CPU Karpenter https karpenter sh docs concepts scheduling labels kind deployment spec template spec containers nodeSelector karpenter k8s aws instance size 8xlarge Cluster Autoscaler node selector spec affinity nodeAffinity requiredDuringSchedulingIgnoredDuringExecution nodeSelectorTerms matchExpressions key eks amazonaws com nodegroup operator In values 8 core node group match your node group name EC2 Karpenter https karpenter sh Karpenter label taint Karpenter best practices https aws github io aws eks best practices karpenter Karpenter provisioner consolidation https aws github io aws eks best practices karpenter configure requestslimits for all non cpu resources when using consolidation Amazon Machine Image AMI Worker API kublet OS Amazon EKS optimized Amazon Linux 2 https docs aws amazon com eks latest userguide eks optimized ami html Amazon EKS optimized Bottlerocket AMI https docs aws amazon com eks latest userguide eks optimized ami bottlerocket html Karpenter AMI https karpenter sh docs concepts nodepools instance types https docs aws amazon com eks latest userguide update managed node group html AMI AMI ID Auto Scaling Group ASG AMI ID AMI 1 23 5 1 24 3 EKS API https docs aws amazon com eks latest userguide update managed node group html 1 23 5 1 23 6 AMI AMI https docs aws amazon com eks latest userguide eks optimized ami html AMI AWS CLI aws ssm get parameter name aws service eks optimized ami 1 24 amazon linux 2 recommended image id query Parameter Value output text EBS EBS gp3 I O EBS STDOUT Disk I O state run containerd EBS eksctl https eksctl io EC2 managedNodeGroups name al2 workers amiFamily AmazonLinux2 desiredCapacity 2 volumeSize 80 additionalVolumes volumeName dev sdz volumeSize 100 preBootstrapCommands systemctl stop containerd mkfs t ext4 dev nvme1n1 rm rf var lib containerd mount dev nvme1n1 var lib containerd systemctl start containerd Terraform EKS Blueprints for terraform https aws ia github io terraform aws eks blueprints patterns stateful eks managed nodegroup w multiple volumes Karpenter blockDeviceMappings https karpenter sh docs concepts nodeclasses specblockdevicemappings EBS AWS EBS CSI https github com kubernetes sigs aws ebs csi driver apiVersion storage k8s io v1 kind StorageClass metadata name ebs sc provisioner ebs csi aws com volumeBindingMode WaitForFirstConsumer apiVersion v1 kind PersistentVolumeClaim metadata name ebs claim spec accessModes ReadWriteOnce storageClassName ebs sc resources requests storage 4Gi apiVersion v1 kind Pod metadata name app spec containers name app image public ecr aws docker library nginx volumeMounts name persistent storage mountPath data volumes name persistent storage persistentVolumeClaim claimName ebs claim EBS EBS EBS EBS https docs aws amazon com AWSEC2 latest UserGuide volume limits html taints Journald Journald syslog syslog syslog cloud init runcmd systemctl disable now syslog service OS in place Attention Amazon Linux cordoning draining replacing AMI Amazon AMI AWS Systems Manager Patch Manager https docs aws amazon com systems manager latest userguide systems manager patch html AMI Flatcar Container Linux https platcar linux org Bottlerocket OS https github com bottlerocket os bottlerocket Flatcar Linux update operator https github com platcar platcar linux update operator Bottlerocket update operator https github com bottlerocket os bottlerocket update operator |
eks exclude true search | ---
search:
exclude: true
---
# 고가용성 애플리케이션 실행
고객은 애플리케이션을 변경할 때나 트래픽이 급증할 때 조차 애플리케이션이 항상 사용 가능하기를 기대합니다. 확장 가능하고 복원력이 뛰어난 아키텍처를 통해 애플리케이션과 서비스를 중단 없이 실행하여 사용자 만족도를 유지할 수 있습니다. 확장 가능한 인프라는 비즈니스 요구 사항에 따라 확장 및 축소됩니다. 단일 장애 지점을 제거하는 것은 애플리케이션의 가용성을 개선하고 복원력을 높이기 위한 중요한 단계입니다.
쿠버네티스를 사용하면 가용성과 복원력이 뛰어난 방식으로 애플리케이션을 운영하고 실행할 수 있습니다. 선언적 관리를 통해 애플리케이션을 설정한 후에는 쿠버네티스가 지속적으로 [현재 상태를 원하는 상태와 일치](https://kubernetes.io/docs/concepts/architecture/controller/#desired-vs-current)하도록 시도할 수 있습니다.
## 권장 사항
### 싱글톤 파드를 실행하지 마세요
전체 애플리케이션이 단일 파드에서 실행되는 경우, 해당 파드가 종료되면 애플리케이션을 사용할 수 없게 됩니다. 개별 파드를 사용하여 애플리케이션을 배포하는 대신 [디플로이먼트](https://kubernetes.io/docs/concepts/workloads/controllers/deployment/)를 생성하십시오. 디플로이먼트로 생성된 파드가 실패하거나 종료되는 경우, 디플로이먼트 [컨트롤러](https://kubernetes.io/docs/concepts/architecture/controller/)는 새 파드를 시작하여 지정된 개수의 레플리카 파드가 항상 실행되도록 합니다.
### 여러 개의 레플리카 실행
디플로이먼트를 사용하여 앱의 여러 복제본 파드를 실행하면 가용성이 높은 방식으로 앱을 실행할 수 있습니다. 하나의 복제본에 장애가 발생하더라도 쿠버네티스가 손실을 만회하기 위해 다른 파드를 생성하기 전까지는 용량이 줄어들기는 하지만 나머지 복제본은 여전히 작동한다. 또한 [Horizontal Pod Autoscaler](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/)를 사용하여 워크로드 수요에 따라 복제본을 자동으로 확장할 수 있습니다.
### 여러 노드에 복제본을 스케줄링합니다.
모든 복제본이 동일한 노드에서 실행되고 있고 노드를 사용할 수 없게 되면 여러 복제본을 실행하는 것은 그다지 유용하지 않습니다. 파드 anti-affinity 또는 파드 topology spread contraints을 사용해 디플로이먼트의 복제본을 여러 워커 노드에 분산시키는 것을 고려해 보십시오.
여러 AZ에서 실행하여 일반적인 애플리케이션의 신뢰성을 더욱 개선할 수 있습니다.
#### 파드 anti-affinity 규칙 사용
아래 매니페스트는 쿠버네티스 스케줄러에게 파드를 별도의 노드와 AZ에 배치하도록 *prefer*라고 지시합니다. 이렇게 되어있다면 별도의 노드나 AZ가 필요하지 않습니다. 그렇게 하면 각 AZ에서 실행 중인 파드가 있으면 쿠버네티스가 어떤 파드도 스케줄링할 수 없기 때문입니다. 애플리케이션에 단 세 개의 복제본이 필요한 경우, `topologyKey: topology.kubernetes.io/zone`에 대해 `requiredDuringSchedulingIgnoredDuringExecution`를 사용할 수 있으며, 쿠버네티스 스케줄러는 동일한 AZ에 두 개의 파드를 스케줄링하지 않습니다.
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: spread-host-az
labels:
app: web-server
spec:
replicas: 4
selector:
matchLabels:
app: web-server
template:
metadata:
labels:
app: web-server
spec:
affinity:
podAntiAffinity:
preferredDuringSchedulingIgnoredDuringExecution:
- podAffinityTerm:
labelSelector:
matchExpressions:
- key: app
operator: In
values:
- web-server
topologyKey: topology.kubernetes.io/zone
weight: 100
- podAffinityTerm:
labelSelector:
matchExpressions:
- key: app
operator: In
values:
- web-server
topologyKey: kubernetes.io/hostname
weight: 99
containers:
- name: web-app
image: nginx:1.16-alpine
```
#### 파드 topology spread constraints 사용
파드 anti-affinity 규칙과 마찬가지로, 파드 topology spread constraints을 사용하면 호스트 또는 AZ와 같은 다양한 장애 (또는 토폴로지) 도메인에서 애플리케이션을 사용할 수 있습니다. 이 접근 방식은 서로 다른 토폴로지 도메인 각각에 여러 복제본을 보유하여 내결함성과 가용성을 보장하려는 경우에 매우 효과적입니다. 반면, 파드 anti-affinity 규칙은 anti-affinity가 있는 파드 서로에 대해 거부 효과가 있기 때문에 토폴로지 도메인에 단일 복제본이 있도록 쉽게 만들 수 있습니다. 이러한 경우 전용 노드의 단일 복제본은 내결함성 측면에서 이상적이지도 않고 리소스를 적절하게 사용하지도 않습니다. topology spread constraints을 사용하면 스케줄러가 토폴로지 도메인 전체에 적용하려고 시도하는 분배 또는 배포를 보다 효과적으로 제어할 수 있습니다. 이 접근 방식에서 사용할 수 있는 몇 가지 중요한 속성은 다음과 같습니다.
1. `MaxSkew`는 토폴로지 도메인 전체에서 균등하지 않게 분산될 수 있는 최대 정도를 제어하거나 결정하는 데 사용됩니다. 예를 들어 애플리케이션에 10개의 복제본이 있고 3개의 AZ에 배포된 경우 균등하게 분산될 수는 없지만 분포의 불균일성에 영향을 미칠 수 있습니다. 이 경우 `MaxSkew`는 1에서 10 사이일 수 있습니다.값이 1이면 3개의 AZ에 걸쳐 `4,3,3`, `3,4,3` 또는 `3,3,4`와 같은 분배가 생성될 수 있습니다. 반대로 값이 10이면 3개의 AZ에 걸쳐 `10,0,0`, `0,10,0` 또는 `0,0,10`과 같은 분배가 나올 수 있다는 의미입니다.
2. `TopologyKey`는 노드 레이블 중 하나의 키이며 파드 배포에 사용해야 하는 토폴로지 도메인 유형을 정의합니다. 예를 들어 존(zone)별 분배는 다음과 같은 키-값 쌍을 가집니다.
```
topologyKey: "topology.kubernetes.io/zone"
```
3. `WhenUnsatisfiable` 속성은 원하는 제약 조건을 충족할 수 없는 경우 스케줄러가 어떻게 응답할지 결정하는 데 사용됩니다.
4. `LabelSelector`는 일치하는 파드를 찾는 데 사용되며, 이를 통해 스케줄러는 지정한 제약 조건에 따라 파드를 배치할 위치를 결정할 때 이를 인지할 수 있습니다.
위의 필드 외에도, 다른 필드에 대해서는 [쿠버네티스 설명서](https://kubernetes.io/docs/concepts/scheduling-eviction/topology-spread-constraints/)에서 더 자세히 알아볼 수 있습니다.
![파드 토폴로지는 제약 조건을 3개 AZ에 분산시킵니다.](./images/pod-topology-spread-constraints.jpg)
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: spread-host-az
labels:
app: web-server
spec:
replicas: 10
selector:
matchLabels:
app: web-server
template:
metadata:
labels:
app: web-server
spec:
topologySpreadConstraints:
- maxSkew: 1
topologyKey: "topology.kubernetes.io/zone"
whenUnsatisfiable: ScheduleAnyway
labelSelector:
matchLabels:
app: express-test
containers:
- name: web-app
image: nginx:1.16-alpine
```
### 쿠버네티스 메트릭 서버 실행
쿠버네티스 [메트릭 서버](https://github.com/kubernetes-sigs/metrics-server) 를 설치하면 애플리케이션 확장에 도움이 됩니다. [HPA](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) 및 [VPA](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler)와 같은 쿠버네티스 오토스케일러 애드온은 애플리케이션의 메트릭을 추적하여 애플리케이션을 확장합니다. 메트릭 서버는 규모 조정 결정을 내리는 데 사용할 수 있는 리소스 메트릭을 수집합니다. 메트릭은 kubelets에서 수집되어 [메트릭 API 형식](https://github.com/kubernetes/metrics)으로 제공됩니다.
메트릭 서버는 데이터를 보관하지 않으며 모니터링 솔루션도 아닙니다. 그 목적은 CPU 및 메모리 사용량 메트릭을 다른 시스템에 공개하는 것입니다. 시간 경과에 따른 애플리케이션 상태를 추적하려면 Prometheus 또는 Amazon CloudWatch와 같은 모니터링 도구가 필요합니다.
[EKS 설명서](https://docs.aws.amazon.com/eks/latest/userguide/metrics-server.html)에 따라 EKS 클러스터에 메트릭 서버를 설치하십시오.
## Horizontal Pod Autoscaler (HPA)
HPA는 수요에 따라 애플리케이션을 자동으로 확장하고 트래픽이 최고조에 달할 때 고객에게 영향을 미치지 않도록 도와줍니다. 쿠버네티스에는 제어 루프로 구현되어 있어 리소스 메트릭을 제공하는 API에서 메트릭을 정기적으로 쿼리합니다.
HPA는 다음 API에서 메트릭을 검색할 수 있습니다.
1. 리소스 메트릭 API라고도 하는 `metrics.k8s.io` — 파드의 CPU 및 메모리 사용량을 제공합니다.
2. `custom.metrics.k8s.io` — 프로메테우스와 같은 다른 메트릭 콜렉터의 메트릭을 제공합니다. 이러한 메트릭은 쿠버네티스 클러스터에 __internal__ 입니다.
3. `external.metrics.k8s.io` — 쿠버네티스 클러스터에 __external__인 메트릭을 제공합니다 (예: SQS 대기열 길이, ELB 지연 시간).
애플리케이션을 확장하기 위한 메트릭을 제공하려면 이 세 가지 API 중 하나를 사용해야 합니다.
### 사용자 지정 또는 외부 지표를 기반으로 애플리케이션 규모 조정
사용자 지정 또는 외부 지표를 사용하여 CPU 또는 메모리 사용률 이외의 지표에 따라 애플리케이션을 확장할 수 있습니다.[커스텀 메트릭](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/instrumentation/custom-metrics-api.md) API 서버는 HPA가 애플리케이션을 자동 스케일링하는 데 사용할 수 있는 `custom-metrics.k8s.io` API를 제공합니다.
[쿠버네티스 메트릭 API용 프로메테우스 어댑터](https://github.com/directxman12/k8s-prometheus-adapter)를 사용하여 프로메테우스에서 메트릭을 수집하고 HPA에서 사용할 수 있습니다. 이 경우 프로메테우스 어댑터는 프로메테우스 메트릭을 [메트릭 API 형식](https://github.com/kubernetes/metrics/blob/master/pkg/apis/metrics/v1alpha1/types.go)으로 노출합니다. 모든 커스텀 메트릭 구현 목록은 [쿠버네티스 설명서](https://github.com/kubernetes/metrics/blob/master/IMPLEMENTATIONS.md#custom-metrics-api)에서 확인할 수 있습니다.
프로메테우스 어댑터를 배포한 후에는 kubectl을 사용하여 사용자 지정 메트릭을 쿼리할 수 있습니다.
`kubectl get —raw /apis/custom.metrics.k8s.io/v1beta1/ `
[외부 메트릭](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/instrumentation/external-metrics-api.md)은 이름에서 알 수 있듯이 Horizontal Pod Autoscaler에 쿠버네티스 클러스터 외부의 메트릭을 사용하여 배포를 확장할 수 있는 기능을 제공합니다. 예를 들어 배치 처리 워크로드에서는 SQS 대기열에서 진행 중인 작업 수에 따라 복제본 수를 조정하는 것이 일반적입니다.
Kubernetes 워크로드를 자동 확장하려면 여러 사용자 정의 이벤트를 기반으로 컨테이너 확장을 구동할 수 있는 오픈 소스 프로젝트인 KEDA(Kubernetes Event-driven Autoscaling)를 사용할 수 있습니다. 이 [AWS 블로그](https://aws.amazon.com/blogs/mt/autoscaling-kubernetes-workloads-with-keda-using-amazon-managed-service-for-prometheus-metrics/)에서는 Kubernetes 워크로드 자동 확장을 위해 Amazon Managed Service for Prometheus를 사용하는 방법을 설명합니다.
## Vertical Pod Autoscaler (VPA)
VPA는 파드의 CPU 및 메모리 예약을 자동으로 조정하여 애플리케이션을 “적절한 크기”로 조정할 수 있도록 합니다. 리소스 할당을 늘려 수직으로 확장해야 하는 애플리케이션의 경우 [VPA](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler)를 사용하여 파드 복제본을 자동으로 확장하거나 규모 조정 권장 사항을 제공할 수 있습니다.
VPA의 현재 구현은 파드에 대한 인플레이스 조정을 수행하지 않고 대신 스케일링이 필요한 파드를 다시 생성하기 때문에 VPA가 애플리케이션을 확장해야 하는 경우 애플리케이션을 일시적으로 사용할 수 없게 될 수 있습니다.
[EKS 설명서](https://docs.aws.amazon.com/eks/latest/userguide/vertical-pod-autoscaler.html)에는 VPA 설정 방법이 수록되어 있습니다.
[Fairwinds Goldilocks](https://github.com/FairwindsOps/goldilocks/) 프로젝트는 CPU 및 메모리 요청 및 제한에 대한 VPA 권장 사항을 시각화할 수 있는 대시보드를 제공합니다. VPA 업데이트 모드를 사용하면 VPA 권장 사항에 따라 파드를 자동 확장할 수 있습니다.
## 애플리케이션 업데이트
최신 애플리케이션에는 높은 수준의 안정성과 가용성을 갖춘 빠른 혁신이 필요합니다. 쿠버네티스는 고객에게 영향을 주지 않으면서 애플리케이션을 지속적으로 업데이트할 수 있는 도구를 제공합니다.
가용성 저하 없이 변경 사항을 신속하게 배포할 수 있는 몇 가지 모범 사례를 살펴보겠습니다.
### 롤백을 수행할 수 있는 메커니즘 마련
실행 취소 버튼이 있으면 재해를 피할 수 있습니다. 프로덕션 클러스터를 업데이트하기 전에 별도의 하위 환경(테스트 또는 개발 환경)에서 배포를 테스트하는 것이 가장 좋습니다. CI/CD 파이프라인을 사용하면 배포를 자동화하고 테스트하는 데 도움이 될 수 있습니다. 지속적 배포 파이프라인을 사용하면 업그레이드에 결함이 발생할 경우 이전 버전으로 빠르게 되돌릴 수 있습니다.
디플로이먼트를 사용하여 실행 중인 애플리케이션을 업데이트할 수 있습니다. 이는 일반적으로 컨테이너 이미지를 업데이트하여 수행됩니다. `kubectl`을 사용하여 다음과 같이 디플로이먼트를 업데이트할 수 있습니다.
```bash
kubectl --record deployment.apps/nginx-deployment set image nginx-deployment nginx=nginx:1.16.1
```
`--record` 인수는 디플로이먼트의 변경 사항을 기록하고 롤백을 수행해야 하는 경우 도움이 됩니다. `kubectl rollout history deployment`는 클러스터의 디플로이먼트에 대해 기록된 변경 사항을 보여준다. `kubectl rollout undo deployment <DEPLOYMENT_NAME>`을 사용하여 변경사항을 롤백할 수 있습니다.
기본적으로, 파드를 재생성해야 하는 디플로이먼트를 업데이트하면 디플로이먼트는 [롤링 업데이트](https://kubernetes.io/docs/tutorials/kubernetes-basics/update/update-intro/)를 수행합니다. 즉, 쿠버네티스는 디플로이먼트에서 실행 중인 파드의 일부만 업데이트하고 모든 파드는 한 번에 업데이트하지 않습니다. `RollingUpdateStrategy` 프로퍼티를 통해 쿠버네티스가 롤링 업데이트를 수행하는 방식을 제어할 수 있습니다.
디플로이먼트의 *롤링 업데이트*를 수행할 때, [`Max Unavailable`](https://kubernetes.io/docs/concepts/workloads/controllers/deployment/#max-unavailable) 프로퍼티를 사용하여 업데이트 중에 사용할 수 없는 파드의 최대 개수를 지정할 수 있습니다. 디플로이먼트의 `Max Surge` 프로퍼티를 사용하면 원하는 파드 수보다 더 생성할 수 있는 최대 파드 수를 설정할 수 있습니다.
롤아웃으로 인해 고객이 혼란에 빠지지 않도록 `max unavailable`을 조정하는 것을 고려해 보십시오. 예를 들어 쿠버네티스는 기본적으로 25%의 `max unavailable`을 설정합니다. 즉, 100개의 파드가 있는 경우 롤아웃 중에 활성 상태로 작동하는 파드는 75개만 있을 수 있습니다. 애플리케이션에 최소 80개의 파드가 필요한 경우 이 롤아웃으로 인해 중단이 발생할 수 있습니다. 대신, `max unavailable`을 20% 로 설정하여 롤아웃 내내 작동하는 파드가 80개 이상 있도록 할 수 있습니다.
### 블루/그린 배포 사용
변경은 본질적으로 위험하지만, 취소할 수 없는 변경은 잠재적으로 치명적일 수 있습니다. *롤백*을 통해 시간을 효과적으로 되돌릴 수 있는 변경 절차를 사용하면 향상된 기능과 실험이 더 안전해집니다. 블루/그린 배포는 문제가 발생할 경우 변경 사항을 신속하게 철회할 수 있는 방법을 제공합니다. 이 배포 전략에서는 새 버전을 위한 환경을 만듭니다. 이 환경은 업데이트 중인 애플리케이션의 현재 버전과 동일합니다. 새 환경이 프로비전되면 트래픽이 새 환경으로 라우팅됩니다. 새 버전에서 오류가 발생하지 않고 원하는 결과를 얻을 경우 이전 환경은 종료됩니다. 그렇지 않으면 트래픽이 이전 버전으로 복원됩니다.
기존 버전의 디플로이먼트와 동일한 새 디플로이먼트를 생성하여 쿠버네티스에서 블루/그린 디플로이먼트를 수행할 수 있습니다. 새 디플로이먼트의 파드가 오류 없이 실행되고 있는지 확인했으면, 트래픽을 애플리케이션의 파드로 라우팅하는 서비스의 `selector` 스펙을 변경하여 새 디플로이먼트로 트래픽을 보내기 시작할 수 있습니다.
[Flux](https://fluxcd.io), [Jenkins](https://www.jenkins.io), [Spinnaker](https://spinnaker.io)와 같은 많은 지속적 통합(CI) 도구를 사용하면 블루/그린 배포를 자동화할 수 있습니다. 쿠버네티스 블로그에는 Jenkins를 사용한 단계별 설명이 포함되어 있습니다: [Jenkins를 사용한 쿠버네티스의 제로 다운타임 배포](https://kubernetes.io/blog/2018/04/30/zero-downtime-deployment-kubernetes-jenkins/)
### Canary 디플로이먼트 사용하기
Canary 배포는 블루/그린 배포의 변형으로, 변경으로 인한 위험을 크게 제거할 수 있습니다. 이 배포 전략에서는 기존 디플로이먼트와 함께 더 적은 수의 파드가 포함된 새 디플로이먼트를 생성하고 소량의 트래픽을 새 디플로이먼트로 전환하는 것입니다. 지표에서 새 버전이 기존 버전과 같거나 더 나은 성능을 보인다면, 새 디플로이먼트로 향하는 트래픽을 점진적으로 늘리면서 모든 트래픽이 새 디플로이먼트로 전환될 때까지 규모를 늘립니다. 만약 문제가 발생하면 모든 트래픽을 이전 디플로이먼트로 라우팅하고 새 디플로이먼트로의 트래픽 전송을 중단할 수 있습니다.
쿠버네티스는 canary 배포를 수행하는 기본 방법을 제공하지 않지만, [Flagger](https://github.com/weaveworks/flagger)와 같은 도구를 [Istio](https://docs.flagger.app/tutorials/istio-progressive-delivery) 또는 [App Mesh](https://docs.flagger.app/install/flagger-install-on-eks-appmesh)와 함께 사용할 수 있다.
## 상태 점검 및 자가 복구
버그가 없는 소프트웨어는 없지만 쿠버네티스를 사용하면 소프트웨어 오류의 영향을 최소화할 수 있습니다. 과거에는 애플리케이션이 충돌하면 누군가 애플리케이션을 수동으로 다시 시작하여 상황을 해결해야 했습니다. 쿠버네티스를 사용하면 파드의 소프트웨어 장애를 감지하고 자동으로 새 복제본으로 교체할 수 있습니다. 쿠버네티스를 사용하면 애플리케이션의 상태를 모니터링하고 비정상 인스턴스를 자동으로 교체할 수 있습니다.
쿠버네티스는 세 가지 유형의 [상태 검사](https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes/)를 지원합니다.
1. Liveness probe
2. Startup probe (쿠버네티스 버전 1.16 이상에서 지원)
3. Readiness probe
쿠버네티스 에이전트인 [Kubelet](https://kubernetes.io/docs/reference/command-line-tools-reference/kubelet/)은 위에서 언급한 모든 검사를 실행할 책임이 있습니다. Kubelet은 세 가지 방법으로 파드의 상태를 확인할 수 있습니다. kubelet은 파드의 컨테이너 내에서 셸 명령을 실행하거나, 컨테이너에 HTTP GET 요청을 보내거나, 지정된 포트에 TCP 소켓을 열 수 있습니다.
컨테이너 내에서 셸 스크립트를 실행하는 `exec` 기반 프로브를 선택하는 경우, `TimeoutSeconds` 값이 만료되기 *전에* 셸 명령어가 종료되는지 확인하십시오. 그렇지 않으면 노드에 노드 장애를 일으키는 `<defunct>` 프로세스가 생깁니다.
## 권장 사항
### Liveness Probe를 사용하여 비정상 파드 제거
Liveness probe는 프로세스가 계속 실행되지만 애플리케이션이 응답하지 않는 *교착* 상태를 감지할 수 있습니다. 예를 들어 포트 80에서 수신 대기하는 웹 서비스를 실행 중인 경우 파드의 포트 80에서 HTTP GET 요청을 보내도록 Liveness 프로브를 구성할 수 있습니다. Kubelet은 주기적으로 GET 요청을 파드에 보내고 응답을 기다립니다. 파드가 200-399 사이에서 응답하면 kubelet은 파드가 정상이라고 간주하고, 그렇지 않으면 파드는 비정상으로 표시됩니다. 파드가 상태 체크에 계속 실패하면 kubelet은 파드를 종료합나다.
`initialDelaySeconds`를 사용하여 첫 번째 프로브를 지연시킬 수 있습니다.
Liveness Probe를 사용할 때는 모든 파드가 동시에 Liveness Probe에 실패하는 상황이 발생하지 않도록 해야 합니다. 쿠버네티스는 모든 파드를 교체하려고 시도하여 애플리케이션을 오프라인으로 전환하기 때문입니다. 게다가 쿠버네티스는 계속해서 새로운 파드를 만들지만 Liveness Probe도 실패할 것이기 때문에 컨트롤 플레인에 불필요한 부담을 줍니다. 파드 외부 요소(예: 외부 데이터베이스)에 의존하도록 Liveness Probe를 구성하지 마십시오. 다시 말해, 파드 외부 데이터베이스가 응답하지 않는다고 해서 파드가 Liveness Probe에 실패하는 일이 있어서는 안 됩니다.
Sandor Szücs의 게시물 [활성 프로브는 위험하다](https://srcco.de/posts/kubernetes-liveness-probes-are-dangerous.html)에서는 잘못 구성된 프로브로 인해 발생할 수 있는 문제를 설명합니다.
### 시작하는 데 시간이 오래 걸리는 어플리케이션에는 Startup Probe를 사용하십시오.
앱을 시작하는 데 추가 시간이 필요한 경우 Startup Probe를 사용하여 Liveness 및 Readniness Probe를 지연시킬 수 있습니다. 예를 들어 데이터베이스로 부터 데이터를 캐싱해야 하는 Java 앱이 제대로 작동하려면 최대 2분이 걸릴 수 있습니다. 완전히 작동하기 전까지는 모든 Liveness 또는 Readniness Probe가 실패할 수 있습니다. Startup Probe를 구성하면 Liveness 또는 Readniness Probe를 실행하기 전에 Java 앱을 *정상*상태로 만들 수 있습니다.
Startup Probe가 성공할 때까지 다른 모든 프로브는 비활성화됩니다. 쿠버네티스가 애플리케이션 시작을 위해 대기해야 하는 최대 시간을 정의할 수 있습니다. 최대 구성 시간이 지난 후에도 파드가 여전히 스타트업 프로브에 실패하면 파드는 종료되고 새 파드가 생성됩니다.
Startup Probe는 Liveness Probe와 비슷합니다. 즉, 실패하면 파드가 다시 생성됩니다. Ricardo A.가 자신의 글 [환상적인 프로브 및 구성 방법](https://medium.com/swlh/fantastic-probes-and-how-to-configure-them-fef7e030bd2f)에서 설명했듯이, 애플리케이션 시작 시간을 예측할 수 없는 경우에는 Startup Probe를 사용해야 합니다. 애플리케이션을 시작하는 데 10초가 걸린다는 것을 알고 있다면 대신 `initialDelaySeconds`와 함께 Liveness/Readiness Probe를 사용해야 합니다.
### Readiness Probe를 사용하여 부분적으로 사용할 수 없는 상태를 감지하세요
Liveness probe는 파드 종료(즉, 앱 재시작)를 통해 해결되는 앱 장애를 감지하는 반면, Readiness Probe는 앱을 _temporarily_ 사용할 수 없는 상태를 감지합니다. 이러한 상황에서는 앱이 일시적으로 응답하지 않을 수 있지만 이 작업이 완료되면 다시 정상이 될 것으로 예상됩니다.
예를 들어, 집중적인 디스크 I/O 작업 중에는 애플리케이션이 일시적으로 요청을 처리할 수 없을 수 있습니다. 여기서 애플리케이션의 파드를 종료하는 것은 해결책이 아니며, 동시에 파드로 전송된 추가 요청이 실패할 수 있습니다.
Readiness Probe를 사용하여 앱의 일시적인 가용성 중단을 감지하고 다시 작동할 때까지 해당 파드에 대한 요청 전송을 중단할 수 있습니다. *실패로 인해 파드가 재생성되는 Liveness Probe와 달리, Readiness Probe가 실패하면 파드는 쿠버네티스 서비스로부터 어떠한 트래픽도 수신하지 않게 됩니다*. Readiness Probe가 성공하면 파드는 서비스로부터 트래픽을 다시 수신합니다.
Liveness Probe와 마찬가지로 파드 외부의 리소스(예: 데이터베이스)에 의존하는 Readiness Probe를 구성하지 마십시오. 다음은 잘못 구성된 Readiness로 인해 애플리케이션이 작동하지 않을 수 있는 시나리오입니다. 앱의 데이터베이스에 연결할 수 없을 때 파드의 Readiness Probe에 장애가 발생하면 다른 파드 복제본도 동일한 상태 점검 기준을 공유하므로 동시에 실패합니다. 이러한 방식으로 프로브를 설정하면 데이터베이스를 사용할 수 없을 때마다 파드의 Readiness Probe가 실패하고 쿠버네티스가 *all* 파드로 트래픽 전송을 중지할 수 있습니다.
Readiness Probes 사용의 부작용은 디플로이먼트를 업데이트하는 데 걸리는 시간을 늘릴 수 있다는 것입니다. Readiness Probe가 성공하지 않는 한 새 복제본은 트래픽을 수신하지 않습니다. 그때까지는 기존 복제본이 계속해서 트래픽을 수신하게 됩니다.
---
## 장애 처리
파드의 수명은 유한합니다. - 파드를 오래 실행하더라도 때가 되면 파드가 올바르게 종료되도록 하는 것이 현명합니다. 업그레이드 전략에 따라 쿠버네티스 클러스터를 업그레이드하려면 새 워커 노드를 생성해야 할 수 있으며, 이 경우 모든 파드를 새 노드에서 다시 생성해야 합니다. 적절한 종료 처리 및 파드 중단 예산을 마련하면 파드가 이전 노드에서 제거되고 새 노드에서 재생성될 때 서비스 중단을 피할 수 있습니다.
워커 노드를 업그레이드하는 가장 좋은 방법은 새 워커 노드를 만들고 기존 워커 노드를 종료하는 것입니다. 워커 노드를 종료하기 전에 먼저 워커 노드를 `drain` 해야 합니다. 워커 노드가 비워지면 해당 노드의 모든 파드가 *안전하게* 제거됩니다. 여기서 가장 중요한 단어는 안전입니다. 워커 노드에서 파드가 제거되면 단순히 `SIGKILL` 시그널이 전송되는 것이 아닙니다. 대신, `SIGTERM` 신호가 제거되는 파드에 있는 각 컨테이너의 메인 프로세스(PID 1)로 보내진다. `SIGTERM` 신호가 전송된 후, 쿠버네티스는 프로세스에 `SIGKILL` 신호가 전송되기까지 일정 시간(유예 기간)을 줍니다. 이 유예 기간은 기본적으로 30초입니다. kubectl에서 `grace-period` 플래그를 사용하여 기본값을 재정의하거나 Podspec에서 `terminationGracePeriodSeconds`를 선언할 수 있습니다.
`kubectl delete pod <pod name> —grace-period=<seconds>`
메인 프로세스에 PID 1이 없는 컨테이너를 사용하는 것이 일반적입니다. 다음과 같은 Python 기반 샘플 컨테이너를 고려해 보십시오.
```
$ kubectl exec python-app -it ps
PID USER TIME COMMAND
1 root 0:00 {script.sh} /bin/sh ./script.sh
5 root 0:00 python app.py
```
이 예제에서 셸 스크립트는 `SIGTERM`을 수신하는데, 이 예제의 메인 프로세스는 파이썬 응용 프로그램이지만 `SIGTERM` 신호를 받지 않습니다. 파드가 종료되면, 파이썬 애플리케이션이 갑자기 종료됩니다. 이 문제는 컨테이너의 [`ENTRYPOINT`](https://docs.docker.com/engine/reference/builder/#entrypoint)를 변경하여 파이썬 애플리케이션을 실행함으로써 해결할 수 있습니다. 또는 [dumb-init](https://github.com/Yelp/dumb-init)과 같은 도구를 사용하여 애플리케이션이 신호를 처리할 수 있도록 할 수 있습니다.
[컨테이너 후크](https://kubernetes.io/docs/concepts/containers/container-lifecycle-hooks/#container-hooks)를 사용하여 컨테이너 시작 또는 중지 시 스크립트 또는 HTTP 요청을 실행할 수도 있습니다. `Prestop` 후크 액션은 컨테이너가 `SIGTERM` 신호를 수신하기 전에 실행되며 이 신호가 전송되기 전에 완료되어야 합니다. `terminationGracePeriodSeconds` 값은 `SIGTERM` 신호가 전송될 때가 아니라 `PreStop` 후크 액션이 실행되기 시작할 때부터 적용됩니다.
## 권장 사항
### Pod Disruption Budget으로 중요한 워크로드를 보호하세요
Pod Disruption Budget 또는 PDB는 애플리케이션의 복제본 수가 선언된 임계값 아래로 떨어지면 제거 프로세스를 일시적으로 중단할 수 있습니다. 사용 가능한 복제본 수가 임계값을 초과하면 제거 프로세스가 계속됩니다. PDB를 사용하여 복제본의 `minAvailable` 및 `maxUnavailable` 수를 선언할 수 있습니다. 예를 들어 앱 복제본을 3개 이상 사용할 수 있게 하려면 PDB를 만들 수 있습니다.
```
apiVersion: policy/v1beta1
kind: PodDisruptionBudget
metadata:
name: my-svc-pdb
spec:
minAvailable: 3
selector:
matchLabels:
app: my-svc
```
위의 PDB 정책은 쿠버네티스에게 3개 이상의 복제본을 사용할 수 있을 때까지 제거 프로세스를 중단하도록 지시합니다. 노드 드레이닝은 `PodDisruptionBudgets`을 고려합니다. EKS 관리형 노드 그룹 업그레이드 중에는 [15분 타임아웃으로 노드가 고갈됩니다](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-update-behavior.html). 15분 후 업데이트를 강제 실행하지 않으면(EKS 콘솔에서는 롤링 업데이트라고 함) 업데이트가 실패합니다. 업데이트를 강제로 적용하면 파드가 삭제됩니다.
자체 관리형 노드의 경우 [AWS Node Termination Handler](https://github.com/aws/aws-node-termination-handler)와 같은 도구를 사용할 수도 있습니다. 이 도구를 사용하면 Kubernetes 컨트롤 플레인이 [EC2 유지 관리](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-instances-status-check_sched.html) 이벤트 및 [EC2 스팟 중단](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-interruptions.html) 등 EC2 인스턴스를 사용할 수 없게 될 수 있는 이벤트에 적절하게 대응합니다. 쿠버네티스 API를 사용하여 노드를 비우고 새 파드가 스케줄되지 않도록 한 다음, 파드를 드레이닝하여 실행 중인 파드를 종료한다.
파드 anti-affinity를 사용해 디플로이먼트의 파드를 다른 노드에 스케줄링하고 노드 업그레이드 중 PDB 관련 지연을 피할 수 있습니다.
### 카오스 엔지니어링 연습
> 카오스 엔지니어링은 프로덕션에서의 격렬한 조건을 견딜 수 있는 시스템의 성능에 대한 신뢰를 구축하기 위해 분산 시스템을 실험하는 분야입니다.
Dominik Tornow는 자신의 블로그 [쿠버네티스는 선언적 시스템](https://medium.com/@dominik.tornow/the-mechanics-of-kubernetes-ac8112eaa302)에서 “*사용자가 원하는 시스템 상태를 시스템에 표시합니다. 그런 다음 시스템은 현재 상태와 원하는 상태를 고려하여 현재 상태에서 원하는 상태로 전환하기 위한 명령 순서를 결정합니다.*”라고 설명합니다. 즉, 쿠버네티스는 항상 *원하는 상태*를 저장하고 시스템이 이를 벗어나면 쿠버네티스는 상태를 복원하기 위한 조치를 취합니다. 예를 들어 워커 노드를 사용할 수 없게 되면 쿠버네티스는 파드를 다른 워커 노드로 다시 스케줄합니다. 마찬가지로, `replica`가 충돌하면 [디플로이먼트 컨트롤러](https://kubernetes.io/docs/concepts/architecture/controller/#design)가 새 `replica`를 생성합니다. 이런 방식으로 쿠버네티스 컨트롤러는 장애를 자동으로 수정합니다.
[Gremlin](https://www.gremlin.com)과 같은 카오스 엔지니어링 도구를 사용하면 쿠버네티스 클러스터의 복원력을 테스트하고 단일 장애 지점을 식별할 수 있습니다. 클러스터(및 그 이상)에 인위적인 혼돈을 유발하는 도구를 사용하면 시스템 약점을 발견하고 병목 현상과 잘못된 구성을 식별하며 통제된 환경에서 문제를 수정할 수 있습니다. 카오스 엔지니어링 철학은 의도적으로 문제를 해결하고 인프라에 스트레스를 주어 예상치 못한 다운타임을 최소화하는 것을 권장합니다.
### 서비스 메시 사용
서비스 메시를 사용하여 애플리케이션의 복원력을 개선할 수 있습니다. 서비스 메시는 서비스 간 통신을 가능하게 하고 마이크로서비스 네트워크의 가시성을 높입니다. 대부분의 서비스 메시 제품은 애플리케이션의 네트워크 트래픽을 가로채고 검사하는 소규모 네트워크 프록시를 각 서비스와 함께 실행하는 방식으로 작동합니다. 애플리케이션을 수정하지 않고도 애플리케이션을 메시에 배치할 수 있습니다. 서비스 프록시에 내장된 기능을 사용하여 네트워크 통계를 생성하고, 액세스 로그를 생성하고, 분산 추적을 위한 아웃바운드 요청에 HTTP 헤더를 추가하도록 할 수 있습니다.
서비스 메시를 사용하면 자동 요청 재시도, 제한 시간, 회로 차단, 속도 제한과 같은 기능을 통해 마이크로서비스의 복원력을 높일 수 있습니다.
여러 클러스터를 운영하는 경우 서비스 메시를 사용하여 클러스터 간 서비스 간 통신을 활성화할 수 있습니다.
### 서비스 메시
+ [AWS App Mesh](https://aws.amazon.com/app-mesh/)
+ [Istio](https://istio.io)
+ [LinkerD](http://linkerd.io)
+ [Consul](https://www.consul.io)
---
## Observability
Observability는 모니터링, 로깅, 추적을 포함하는 포괄적인 용어입니다. 마이크로서비스 기반 애플리케이션은 기본적으로 배포됩니다. 단일 시스템을 모니터링하는 것으로 충분한 모놀리식 애플리케이션과 달리 분산 애플리케이션 아키텍처에서는 각 구성 요소의 성능을 모니터링해야 합니다. 클러스터 수준 모니터링, 로깅 및 분산 추적 시스템을 사용하여 고객이 중단되기 전에 클러스터의 문제를 식별할 수 있습니다.
문제 해결 및 모니터링을 위한 쿠버네티스 내장 도구는 제한적입니다. 메트릭 서버는 리소스 메트릭을 수집하여 메모리에 저장하지만 유지하지는 않습니다. kubectl을 사용하여 파드의 로그를 볼 수 있지만, 쿠버네티스는 로그를 자동으로 보관하지 않습니다. 그리고 분산 추적 구현은 애플리케이션 코드 수준에서 또는 서비스 메시를 사용하여 수행됩니다.
쿠버네티스의 확장성은 여기서 빛을 발합니다. 쿠버네티스를 사용하면 선호하는 중앙 집중식 모니터링, 로깅 및 추적 솔루션을 가져올 수 있습니다.
## 권장 사항
### 애플리케이션 모니터링
최신 애플리케이션에서 모니터링해야 하는 지표의 수는 계속 증가하고 있습니다. 애플리케이션을 자동으로 추적하면 고객의 문제를 해결하는데 집중할 수 있어 도움이 됩니다. [Prometheus](https://prometheus.io) 또는 [CloudWatch Container Insights](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ContainerInsights.html)와 같은 클러스터 전반의 모니터링 도구는 클러스터 및 워크로드를 모니터링하고 문제가 발생할 때 또는 가급적이면 문제가 발생하기 전에 신호를 제공할 수 있습니다.
모니터링 도구를 사용하면 운영 팀이 구독할 수 있는 알림을 생성할 수 있습니다. 악화 시 가동 중단으로 이어지거나 애플리케이션 성능에 영향을 미칠 수 있는 이벤트에 대해 경보를 활성화하는 규칙을 고려해 보십시오.
어떤 메트릭을 모니터링해야 할지 잘 모르겠다면 다음 방법에서 영감을 얻을 수 있습니다.
- [RED method](https://www.weave.works/blog/a-practical-guide-from-instrumenting-code-to-specifying-alerts-with-the-red-method). 요청, 오류, 기간을 나타냅니다.
- [USE method](http://www.brendangregg.com/usemethod.html). 사용률, 포화도, 오류를 나타냅니다.
Sysdig의 게시물 [쿠버네티스 알림 모범 사례](https://sysdig.com/blog/alerting-kubernetes/)에는 애플리케이션 가용성에 영향을 미칠 수 있는 구성 요소의 포괄적인 목록이 포함되어 있습니다.
### 프로메테우스 클라이언트 라이브러리를 사용하여 애플리케이션 메트릭을 공개하세요
애플리케이션 상태를 모니터링하고 표준 메트릭을 집계하는 것 외에도 [프로메테우스 클라이언트 라이브러리](https://prometheus.io/docs/instrumenting/clientlibs/)를 사용하여 애플리케이션별 사용자 지정 메트릭을 공개하여 애플리케이션의 가시성을 개선할 수 있습니다.
### 중앙 집중식 로깅 도구를 사용하여 로그를 수집하고 유지합니다.
EKS 로깅은 컨트롤 플레인 로그와 애플리케이션 로그의 두 가지 범주에 속합니다. EKS 컨트롤 플레인 로깅은 컨트롤 플레인의 감사 및 진단 로그를 계정의 CloudWatch Logs로 직접 제공합니다. 애플리케이션 로그는 클러스터 내에서 실행되는 파드에서 생성되는 로그입니다. 애플리케이션 로그에는 비즈니스 로직 애플리케이션을 실행하는 파드와 CoreDNS, Cluster Autoscaler, Prometheus 등과 같은 쿠버네티스 시스템 컴포넌트에서 생성된 로그가 포함됩니다.
[EKS는 다섯 가지 유형의 컨트롤 플레인 로그를 제공합니다.](https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html):
1. 쿠버네티스 API 서버 구성 요소 로그
2. 감사
3. 인증자(Authenticator)
4. 컨트롤러 매니저
5. 스케줄러
컨트롤러 관리자 및 스케줄러 로그는 병목 현상 및 오류와 같은 컨트롤 플레인 문제를 진단하는 데 도움이 될 수 있습니다. 기본적으로 EKS 컨트롤 플레인 로그는 CloudWatch Logs로 전송되지 않습니다. 컨트롤 플레인 로깅을 활성화하고 계정의 각 클러스터에 대해 캡처하려는 EKS 컨트롤 플레인 로그의 유형을 선택할 수 있습니다.
애플리케이션 로그를 수집하려면 클러스터에 [Fluent Bit](http://fluentbit.io), [Fluentd](https://www.fluentd.org) 또는 [CloudWatch Container Insights](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/deploy-container-insights-EKS.html)와 같은 로그 수집 도구를 설치해야 합니다.
쿠버네티스 로그 애그리게이터 도구는 데몬셋으로 실행되며 노드의 컨테이너 로그를 스크랩합니다. 그러면 애플리케이션 로그가 중앙 집중식 대상으로 전송되어 저장됩니다. 예를 들어 CloudWatch 컨테이너 인사이트는 Fluent Bit 또는 Fluentd를 사용하여 로그를 수집하고 이를 CloudWatch Logs로 전송하여 저장할 수 있습니다. Fluent Bit과 Fluentd는 Elasticsearch 및 InfluxDB와 같은 널리 사용되는 여러 로그 분석 시스템을 지원하므로 Fluent Bit 또는 Fluentd의 로그 구성을 수정하여 로그의 스토리지 백엔드를 변경할 수 있습니다.
### 분산 추적 시스템을 사용하여 병목 현상을 식별하십시오.
일반적인 최신 응용 프로그램에는 네트워크를 통해 구성 요소가 분산되어 있으며 응용 프로그램을 구성하는 각 구성 요소가 제대로 작동하는지에 따라 신뢰성이 달라집니다. 분산 추적 솔루션을 사용하면 요청의 흐름과 시스템이 통신하는 방식을 이해할 수 있습니다. 추적을 통해 애플리케이션 네트워크에서 병목 현상이 발생하는 위치를 파악하고 연쇄적 장애를 일으킬 수 있는 문제를 예방할 수 있습니다.
애플리케이션에서 추적을 구현하는 방법에는 두 가지가 있습니다. 공유 라이브러리를 사용하여 코드 수준에서 분산 추적을 구현하거나 서비스 메시를 사용할 수 있습니다.
코드 수준에서 추적을 구현하는 것은 불리할 수 있습니다. 이 메서드에서는 코드를 변경해야 합니다. 다국어 응용 프로그램을 사용하는 경우 이는 더 복잡합니다. 또한 서비스 전체에 걸쳐 또 다른 라이브러리를 유지 관리할 책임도 있습니다.
[LinkerD](http://linkerd.io), [Istio](http://istio.io), [AWS App Mesh](https://aws.amazon.com/app-mesh/)와 같은 서비스 메시를 사용하면 애플리케이션 코드를 최소한으로 변경하여 애플리케이션에서 분산 추적을 구현할 수 있습니다. 서비스 메시를 사용하여 지표 생성, 로깅 및 추적을 표준화할 수 있습니다.
[AWS X-Ray](https://aws.amazon.com/xray/), [Jaeger](https://www.jaegertracing.io)와 같은 추적 도구는 공유 라이브러리와 서비스 메시 구현을 모두 지원합니다.
(공유 라이브러리 및 서비스 메시) 구현을 모두 지원하는 [AWS X-Ray](https://aws.amazon.com/xray/) 또는 [Jaeger](https://www.jaegertracing.io)와 같은 추적 도구를 사용해 보싮시오. 그러면 나중에 서비스 메시를 채택할 때 도구를 전환하지 않아도 됩니다. | eks | search exclude true https kubernetes io docs concepts architecture controller desired vs current https kubernetes io docs concepts workloads controllers deployment https kubernetes io docs concepts architecture controller Horizontal Pod Autoscaler https kubernetes io docs tasks run application horizontal pod autoscale anti affinity topology spread contraints AZ anti affinity AZ prefer AZ AZ topologyKey topology kubernetes io zone requiredDuringSchedulingIgnoredDuringExecution AZ apiVersion apps v1 kind Deployment metadata name spread host az labels app web server spec replicas 4 selector matchLabels app web server template metadata labels app web server spec affinity podAntiAffinity preferredDuringSchedulingIgnoredDuringExecution podAffinityTerm labelSelector matchExpressions key app operator In values web server topologyKey topology kubernetes io zone weight 100 podAffinityTerm labelSelector matchExpressions key app operator In values web server topologyKey kubernetes io hostname weight 99 containers name web app image nginx 1 16 alpine topology spread constraints anti affinity topology spread constraints AZ anti affinity anti affinity topology spread constraints 1 MaxSkew 10 3 AZ MaxSkew 1 10 1 3 AZ 4 3 3 3 4 3 3 3 4 10 3 AZ 10 0 0 0 10 0 0 0 10 2 TopologyKey zone topologyKey topology kubernetes io zone 3 WhenUnsatisfiable 4 LabelSelector https kubernetes io docs concepts scheduling eviction topology spread constraints 3 AZ images pod topology spread constraints jpg apiVersion apps v1 kind Deployment metadata name spread host az labels app web server spec replicas 10 selector matchLabels app web server template metadata labels app web server spec topologySpreadConstraints maxSkew 1 topologyKey topology kubernetes io zone whenUnsatisfiable ScheduleAnyway labelSelector matchLabels app express test containers name web app image nginx 1 16 alpine https github com kubernetes sigs metrics server HPA https kubernetes io docs tasks run application horizontal pod autoscale VPA https github com kubernetes autoscaler tree master vertical pod autoscaler kubelets API https github com kubernetes metrics CPU Prometheus Amazon CloudWatch EKS https docs aws amazon com eks latest userguide metrics server html EKS Horizontal Pod Autoscaler HPA HPA API HPA API 1 API metrics k8s io CPU 2 custom metrics k8s io internal 3 external metrics k8s io external SQS ELB API CPU https github com kubernetes community blob master contributors design proposals instrumentation custom metrics api md API HPA custom metrics k8s io API API https github com directxman12 k8s prometheus adapter HPA API https github com kubernetes metrics blob master pkg apis metrics v1alpha1 types go https github com kubernetes metrics blob master IMPLEMENTATIONS md custom metrics api kubectl kubectl get raw apis custom metrics k8s io v1beta1 https github com kubernetes community blob master contributors design proposals instrumentation external metrics api md Horizontal Pod Autoscaler SQS Kubernetes KEDA Kubernetes Event driven Autoscaling AWS https aws amazon com blogs mt autoscaling kubernetes workloads with keda using amazon managed service for prometheus metrics Kubernetes Amazon Managed Service for Prometheus Vertical Pod Autoscaler VPA VPA CPU VPA https github com kubernetes autoscaler tree master vertical pod autoscaler VPA VPA EKS https docs aws amazon com eks latest userguide vertical pod autoscaler html VPA Fairwinds Goldilocks https github com FairwindsOps goldilocks CPU VPA VPA VPA CI CD kubectl bash kubectl record deployment apps nginx deployment set image nginx deployment nginx nginx 1 16 1 record kubectl rollout history deployment kubectl rollout undo deployment DEPLOYMENT NAME https kubernetes io docs tutorials kubernetes basics update update intro RollingUpdateStrategy Max Unavailable https kubernetes io docs concepts workloads controllers deployment max unavailable Max Surge max unavailable 25 max unavailable 100 75 80 max unavailable 20 80 selector Flux https fluxcd io Jenkins https www jenkins io Spinnaker https spinnaker io CI Jenkins Jenkins https kubernetes io blog 2018 04 30 zero downtime deployment kubernetes jenkins Canary Canary canary Flagger https github com weaveworks flagger Istio https docs flagger app tutorials istio progressive delivery App Mesh https docs flagger app install flagger install on eks appmesh https kubernetes io docs tasks configure pod container configure liveness readiness startup probes 1 Liveness probe 2 Startup probe 1 16 3 Readiness probe Kubelet https kubernetes io docs reference command line tools reference kubelet Kubelet kubelet HTTP GET TCP exec TimeoutSeconds defunct Liveness Probe Liveness probe 80 80 HTTP GET Liveness Kubelet GET 200 399 kubelet kubelet initialDelaySeconds Liveness Probe Liveness Probe Liveness Probe Liveness Probe Liveness Probe Sandor Sz cs https srcco de posts kubernetes liveness probes are dangerous html Startup Probe Startup Probe Liveness Readniness Probe Java 2 Liveness Readniness Probe Startup Probe Liveness Readniness Probe Java Startup Probe Startup Probe Liveness Probe Ricardo A https medium com swlh fantastic probes and how to configure them fef7e030bd2f Startup Probe 10 initialDelaySeconds Liveness Readiness Probe Readiness Probe Liveness probe Readiness Probe temporarily I O Readiness Probe Liveness Probe Readiness Probe Readiness Probe Liveness Probe Readiness Probe Readiness Readiness Probe Readiness Probe all Readiness Probes Readiness Probe drain SIGKILL SIGTERM PID 1 SIGTERM SIGKILL 30 kubectl grace period Podspec terminationGracePeriodSeconds kubectl delete pod pod name grace period seconds PID 1 Python kubectl exec python app it ps PID USER TIME COMMAND 1 root 0 00 script sh bin sh script sh 5 root 0 00 python app py SIGTERM SIGTERM ENTRYPOINT https docs docker com engine reference builder entrypoint dumb init https github com Yelp dumb init https kubernetes io docs concepts containers container lifecycle hooks container hooks HTTP Prestop SIGTERM terminationGracePeriodSeconds SIGTERM PreStop Pod Disruption Budget Pod Disruption Budget PDB PDB minAvailable maxUnavailable 3 PDB apiVersion policy v1beta1 kind PodDisruptionBudget metadata name my svc pdb spec minAvailable 3 selector matchLabels app my svc PDB 3 PodDisruptionBudgets EKS 15 https docs aws amazon com eks latest userguide managed node update behavior html 15 EKS AWS Node Termination Handler https github com aws aws node termination handler Kubernetes EC2 https docs aws amazon com AWSEC2 latest UserGuide monitoring instances status check sched html EC2 https docs aws amazon com AWSEC2 latest UserGuide spot interruptions html EC2 API anti affinity PDB Dominik Tornow https medium com dominik tornow the mechanics of kubernetes ac8112eaa302 replica https kubernetes io docs concepts architecture controller design replica Gremlin https www gremlin com HTTP AWS App Mesh https aws amazon com app mesh Istio https istio io LinkerD http linkerd io Consul https www consul io Observability Observability kubectl Prometheus https prometheus io CloudWatch Container Insights https docs aws amazon com AmazonCloudWatch latest monitoring ContainerInsights html RED method https www weave works blog a practical guide from instrumenting code to specifying alerts with the red method USE method http www brendangregg com usemethod html Sysdig https sysdig com blog alerting kubernetes https prometheus io docs instrumenting clientlibs EKS EKS CloudWatch Logs CoreDNS Cluster Autoscaler Prometheus EKS https docs aws amazon com eks latest userguide control plane logs html 1 API 2 3 Authenticator 4 5 EKS CloudWatch Logs EKS Fluent Bit http fluentbit io Fluentd https www fluentd org CloudWatch Container Insights https docs aws amazon com AmazonCloudWatch latest monitoring deploy container insights EKS html CloudWatch Fluent Bit Fluentd CloudWatch Logs Fluent Bit Fluentd Elasticsearch InfluxDB Fluent Bit Fluentd LinkerD http linkerd io Istio http istio io AWS App Mesh https aws amazon com app mesh AWS X Ray https aws amazon com xray Jaeger https www jaegertracing io AWS X Ray https aws amazon com xray Jaeger https www jaegertracing io |
eks Amazon Elastic Kubernetes Service EKS AWS EKS EC2 API Amazon EKS search exclude true EKS | ---
search:
exclude: true
---
# EKS 컨트롤 플레인
Amazon Elastic Kubernetes Service(EKS)는 자체 쿠버네티스 컨트롤 플레인 또는 워커 노드를 설치, 운영 및 유지 관리할 필요 없이 AWS에서 쉽게 쿠버네티스를 실행할 수 있게 해주는 관리형 쿠버네티스 서비스입니다. 업스트림 쿠버네티스를 실행하며 쿠버네티스 규정 준수 인증을 받았습니다. 이러한 규정 준수를 통해 EKS는 EC2 또는 온프레미스에 설치할 수 있는 오픈 소스 커뮤니티 버전과 마찬가지로 쿠버네티스 API를 지원합니다. 업스트림 쿠버네티스에서 실행되는 기존 애플리케이션은 Amazon EKS와 호환됩니다.
EKS는 쿠버네티스 컨트롤 플레인 노드의 가용성과 확장성을 자동으로 관리하고 비정상 컨트롤 플레인 노드를 자동으로 대체합니다.
## EKS 아키텍처
EKS 아키텍처는 쿠버네티스 컨트롤 플레인의 가용성과 내구성을 손상시킬 수 있는 단일 장애 지점을 제거하도록 설계되었습니다.
EKS로 관리되는 쿠버네티스 컨트롤 플레인은 EKS 관리형 VPC 내에서 실행됩니다. EKS 컨트롤 플레인은 쿠버네티스 API 서버 노드, 기타 클러스터로 구성됩니다. API 서버, 스케줄러, `kube-controller-manager`와 같은 구성 요소를 실행하는 쿠버네티스 API 서버 노드는 오토 스케일링 그룹에서 실행됩니다. EKS는 AWS 리전 내의 별개의 가용 영역(AZ)에서 최소 2개의 API 서버 노드를 실행합니다. 마찬가지로 내구성을 위해 etcd 서버 노드도 3개의 AZ에 걸친 자동 크기 조정 그룹에서 실행됩니다. EKS는 각 AZ에서 NAT 게이트웨이를 실행하고, API 서버 및 etcd 서버는 프라이빗 서브넷에서 실행됩니다. 이 아키텍처는 단일 AZ의 이벤트가 EKS 클러스터의 가용성에 영향을 미치지 않도록 합니다.
새 클러스터를 생성하면 Amazon EKS는 클러스터와 통신하는 데 사용하는 관리형 쿠버네티스 API 서버를 위한 고가용성 엔드포인트를 생성합니다(`kubectl`과 같은 도구 사용). 관리형 엔드포인트는 NLB를 사용하여 쿠버네티스 API 서버의 부하를 분산합니다. 또한 EKS는 워커 노드와의 원활한 통신을 위해 서로 다른 AZ에 두 개의 [ENI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html)를 프로비저닝합니다.
![EKS 데이터 플레인 네트워크 연결](./images/eks-data-plane-connectivity.jpeg)
[쿠버네티스 클러스터의 API 서버](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html)는 퍼블릭 인터넷(퍼블릭 엔드포인트 사용) 또는 VPC(EKS 관리 ENI 사용) 또는 둘 다를 통해 연결할 수 있습니다.
사용자와 워커 노드가 퍼블릭 엔드포인트를 사용하여 API 서버에 연결하든 EKS에서 관리하는 ENI를 사용하든 관계없이 연결을 위한 중복 경로가 있습니다.
## 권장 사항
## 컨트롤 플레인 메트릭 모니터링
쿠버네티스 API 메트릭을 모니터링하면 컨트롤 플레인 성능에 대한 통찰력을 얻고 문제를 식별할 수 있습니다. 비정상 컨트롤 플레인은 클러스터 내에서 실행되는 워크로드의 가용성을 손상시킬 수 있습니다. 예를 들어 잘못 작성된 컨트롤러는 API 서버에 과부하를 일으켜 애플리케이션의 가용성에 영향을 미칠 수 있습니다.
쿠버네티스는 `/metrics` 엔드포인트에서 컨트롤 플레인 메트릭을 노출합니다.
`kubectl`을 사용하여 노출된 메트릭을 볼 수 있습니다.
```shell
kubectl get --raw /metrics
```
이러한 지표는 [프로메테우스 텍스트 형식](https://github.com/prometheus/docs/blob/master/content/docs/instrumenting/exposition_formats.md)으로 표시됩니다.
프로메테우스를 사용하여 이러한 지표를 수집하고 저장할 수 있습니다. 2020년 5월, CloudWatch는 CloudWatch Container Insights에 프로메테우스 지표 모니터링에 대한 지원을 추가했습니다. 따라서 Amazon CloudWatch를 사용하여 EKS 컨트롤 플레인을 모니터링할 수도 있습니다. [새 Prometheus 스크랩 대상 추가 자습서: 프로메테우스 KPI 서버 지표](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/ContainerInsights-Prometheus-Setup-configure.html#ContainerInsights-Prometheus-Setup-new-exporters)를 사용하여 지표를 수집하고 CloudWatch 대시보드를 생성하여 클러스터의 컨트롤 플레인을 모니터링할 수 있습니다.
쿠버네티스 API 서버 메트릭은 [여기](https://github.com/kubernetes/apiserver/blob/master/pkg/endpoints/metrics/metrics.go)에서 찾을 수 있습니다. 예를 들어, `apiserver_request_duration_seconds`는 API 요청을 실행하는 데 걸리는 시간을 나타낼 수 있습니다.
다음과 같은 컨트롤 플레인 메트릭을 모니터링해 보십시오.
### API 서버
| 메트릭 | 설명 |
|: --|: --|
| `apiserver_request_total` | 각 메소드, 드라이 런 값, 그룹, 버전, 리소스, 범위, 구성 요소, HTTP 응답 코드에 대해 구분된 API 서버 요청 카운터입니다.|
| `apiserver_request_duration_seconds*` | 각 메소드, 드라이 런 값, 그룹, 버전, 리소스, 하위 리소스, 범위, 구성 요소에 대한 응답 지연 시간 분포(초 단위)|
| `apiserver_admission_controller_admission_duration_seconds` | admission controller 지연 시간 히스토그램(초), 이름으로 식별되며 각 작업, API 리소스 및 유형별로 구분됨(검증 또는 승인).|
| `apiserver_admission_webhook_rejection_count` | admission webhook 거부 건수.이름, 작업, 거부 코드, 유형(검증 또는 승인), 오류 유형(calling_webhook_error, apiserver_internal_error, no_error) 으로 식별됩니다.|
| `rest_client_request_duration_seconds` | 요청 지연 시간(초)동사와 URL별로 분류되어 있습니다.|
| `rest_client_requests_total` | 상태 코드, 메서드, 호스트별로 파티션을 나눈 HTTP 요청 수|
### etcd
| 메트릭 | 설명
|: --|: --|
| `etcd_request_duration_seconds` | 각 작업 및 객체 유형에 대한 Etcd 요청 지연 시간(초)|
| `etcd_db_total_size_in_bytes` 또는 <br />`apiserver_storage_db_total_size_in_bytes` (EKS v1.26부터 시작) | Etcd 데이터베이스 크기 |
[쿠버네티스 모니터링 개요 대시보드](https://grafana.com/grafana/dashboards/14623)를 사용하여 쿠버네티스 API 서버 요청과 지연 시간 및 etcd 지연 시간 메트릭을 시각화하고 모니터링하는 것을 고려해 보십시오.
다음 프로메테우스 쿼리를 사용하여 etcd의 현재 크기를 모니터링할 수 있습니다. 이 쿼리는 API 메트릭 엔드포인트에서 메트릭을 스크랩하는 `kube-apiserver`라는 작업이 있고 EKS 버전이 v1.26 미만인 것으로 가정합니다.
```text
max(etcd_db_total_size_in_bytes{job="kube-apiserver"} / (8 * 1024 * 1024 * 1024))
```
## 클러스터 인증
EKS는 현재 [bearer/서비스 계정 토큰](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#service-account-tokens)과 [웹훅 토큰 인증](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#webhook-token-authentication)을 사용하는 IAM 인증 등 두 가지 유형의 인증을 지원합니다. 사용자가 쿠버네티스 API를 호출하면 웹훅는 요청에 포함된 인증 토큰을 IAM에 전달합니다. base 64로 서명된 URL인 토큰은 AWS 명령줄 인터페이스([AWS CLI](https://aws.amazon.com/cli/))에 의해 생성됩니다.
EKS 클러스터를 생성하는 IAM 사용자 또는 역할은 자동으로 클러스터에 대한 전체 액세스 권한을 얻습니다. [`aws-auth` configmap](https://docs.aws.amazon.com/eks/latest/userguide/add-user-role.html)을 편집하여 EKS 클러스터에 대한 액세스를 관리할 수 있습니다.
`aws-auth` 컨피그맵을 잘못 구성하여 클러스터에 대한 액세스 권한을 잃은 경우에도 클러스터 생성자의 사용자 또는 역할을 사용하여 EKS 클러스터에 액세스할 수 있습니다.
드문 경우이긴 하지만 AWS 리전에서 IAM 서비스를 사용할 수 없는 경우에도 쿠버네티스 서비스 계정의 bearer 토큰을 사용하여 클러스터를 관리할 수 있습니다.
클러스터에서 모든 작업을 수행할 수 있는 “super-admin” 계정을 생성하십시오.
```
kubectl -n kube-system create serviceaccount super-admin
```
super-admin cluster-admin 역할을 부여하는 역할 바인딩을 생성합니다.
```
kubectl create clusterrolebinding super-admin-rb --clusterrole=cluster-admin --serviceaccount=kube-system:super-admin
```
서비스 계정 시크릿 가져오기:
```
secret_name=`kubectl -n kube-system get serviceaccount/super-admin -o jsonpath=' {.secrets [0] .name} '`
```
시크릿과 관련된 토큰 가져오기:
```
SECRET_NAME=`kubectl -n kube-system get serviceaccount/super-admin -o jsonpath='{.secrets[0].name}'`
```
서비스 계정과 토큰을 `kubeconfig'에 추가합니다.
```
TOKEN=`kubectl -n kube-system get secret $SECRET_NAME -o jsonpath='{.data.token}'| base64 --decode`
```
super-admin 계정을 사용하도록 `kubeconfig`에서 현재 컨텍스트를 설정합니다.
```
kubectl config set-credentials super-admin --token=$TOKEN
```
최종 `kubeconfig`는 다음과 같아야 합니다.
```
apiVersion: v1
clusters:
- cluster:
certificate-authority-data:<REDACTED>
server: https://<CLUSTER>.gr7.us-west-2.eks.amazonaws.com
name: arn:aws:eks:us-west-2:<account number>:cluster/<cluster name>
contexts:
- context:
cluster: arn:aws:eks:us-west-2:<account number>:cluster/<cluster name>
user: super-admin
name: arn:aws:eks:us-west-2:<account number>:cluster/<cluster name>
current-context: arn:aws:eks:us-west-2:<account number>:cluster/<cluster name>
kind: Config
preferences: {}
users:
#- name: arn:aws:eks:us-west-2:<account number>:cluster/<cluster name>
# user:
# exec:
# apiVersion: client.authentication.k8s.io/v1alpha1
# args:
# - --region
# - us-west-2
# - eks
# - get-token
# - --cluster-name
# - <<cluster name>>
# command: aws
# env: null
- name: super-admin
user:
token: <<super-admin sa’s secret>>
```
## Admission Webhooks
쿠버네티스에는 [admission webhooks 검증 및 변경](https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers)이라는 두 가지 유형의 admission webhooks이 있습니다. 이를 통해 사용자는 쿠버네티스 API를 확장하고 API에서 객체를 승인하기 전에 객체를 검증하거나 변경할 수 있습니다. 이러한 웹훅를 잘못 구성하면 클러스터의 중요한 작업이 차단되어 EKS 컨트롤 플레인이 불안정해질 수 있습니다.
클러스터 크리티컬 작업에 영향을 주지 않으려면 다음과 같은 “catch-all” 웹훅을 설정하지 마십시오.
```
- name: "pod-policy.example.com"
rules:
- apiGroups: ["*"]
apiVersions: ["*"]
operations: ["*"]
resources: ["*"]
scope: "*"
```
또는 웹훅에 30초 미만의 제한 시간을 가진 Fail Open 정책이 있는지 확인하여 웹훅를 사용할 수 없는 경우 클러스터의 중요한 워크로드에 영향을 주지 않도록 하십시오.
### 안전하지 않은 `sysctls`가 있는 파드를 차단한다.
`Sysctl`은 사용자가 런타임 중에 커널 파라미터를 수정할 수 있는 리눅스 유틸리티입니다. 이러한 커널 매개변수는 네트워크, 파일 시스템, 가상 메모리, 프로세스 관리 등 운영 체제 동작의 다양한 측면을 제어합니다.
쿠버네티스를 사용하면 파드에 `sysctl` 프로필을 할당할 수 있다.쿠버네티스는 `systcls`를 안전한 것과 안전하지 않은 것으로 분류합니다. 안전한 `sysctls`는 컨테이너 또는 파드에 네임스페이스가 지정되며, 이를 설정해도 노드의 다른 파드나 노드 자체에는 영향을 주지 않습니다. 반대로 안전하지 않은 sysctl은 다른 파드를 방해하거나 노드를 불안정하게 만들 수 있으므로 기본적으로 비활성화되어 있습니다.
안전하지 않은 `sysctls`가 기본적으로 비활성화되므로, kubelet은 안전하지 않은 `sysctl` 프로필을 가진 파드를 생성하지 않습니다. 이러한 파드를 생성하면, 스케줄러는 해당 파드를 노드에 반복적으로 할당하지만 노드는 실행에 실패합니다. 이 무한 루프는 궁극적으로 클러스터 컨트롤 플레인에 부담을 주어 클러스터를 불안정하게 만듭니다.
안전하지 않은 `sysctls`가 있는 파드를 거부하려면 [OPA 게이트키퍼](https://github.com/open-policy-agent/gatekeeper-library/blob/377cb915dba2db10702c25ef1ee374b4aa8d347a/src/pod-security-policy/forbidden-sysctls/constraint.tmpl) 또는 [Kyverno](https://kyverno.io/policies/pod-security/baseline/restrict-sysctls/restrict-sysctls/)를 사용하는 것을 고려해 보십시오.
## 클러스터 업그레이드 처리
2021년 4월부터 쿠버네티스 릴리스 주기가 연간 4개 릴리스(분기에 한 번)에서 연간 세 번의 릴리스로 변경되었습니다. 새 마이너 버전(예: 1.**21** 또는 1.**22**) 은 대략 [15주마다](https://kubernetes.io/blog/2021/07/20/new-kubernetes-release-cadence/#what-s-changing-and-when) 릴리스됩니다. 쿠버네티스 1.19부터 각 마이너 버전은 처음 릴리스된 후 약 12개월 동안 지원됩니다. 쿠버네티스는 최소 두 개의 마이너 버전에 대해 컨트롤 플레인과 워커 노드 간의 호환성을 지원합니다.
쿠버네티스 커뮤니티의 쿠버네티스 버전 지원에 따라 EKS는 언제든지 최소 3개의 프로덕션 버전의 쿠버네티스 제공하며, 네 번째 버전은 지원 중단될 예정입니다.
EKS는 지원 종료일 최소 60일 전에 해당 쿠버네티스 마이너 버전의 지원 중단을 발표합니다. 지원 종료일이 되면 지원 중단된 버전을 실행하는 클러스터는 EKS가 지원하는 다음 쿠버네티스 버전으로 자동 업데이트되기 시작합니다.
EKS는 [쿠버네티스](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html)와 [EKS 플랫폼 버전](https://docs.aws.amazon.com/eks/latest/userguide/platform-versions.html) 모두에 대해 in-place 클러스터 업그레이드를 수행합니다. 이를 통해 클러스터 운영이 단순화되고 다운타임 없이 최신 쿠버네티스 기능을 활용하고 보안 패치를 적용할 수 있습니다.
새 쿠버네티스 버전에는 중요한 변경 사항이 적용되며 업그레이드 후에는 클러스터를 다운그레이드할 수 없습니다. 최신 쿠버네티스 버전으로 원활하게 전환하려면 클러스터 업그레이드 처리를 위한 프로세스를 잘 문서화해야 합니다. 최신 쿠버네티스 버전으로 업그레이드할 때 in-place 클러스터 업그레이드를 수행하는 대신 새 클러스터로 마이그레이션하는 것을 고려할 수 있습니다. [VMware의 Velero](https://github.com/vmware-tanzu/velero)와 같은 클러스터 백업 및 복원 도구를 사용하면 새 클러스터로 마이그레이션하는데 도움이 될 수 있습니다.
- 새 버전에서는 기존 애플리케이션을 손상시킬 수 있는 API와 기능을 더 이상 사용하지 못할 수 있으므로 [쿠버네티스 지원 중단 정책](https://kubernetes.io/docs/reference/using-api/deprecation-policy/)을 숙지해야 합니다.
- 클러스터를 업그레이드하기 전에 [쿠버네티스 변경 로그](https://github.com/kubernetes/kubernetes/tree/master/CHANGELOG) 및 [Amazon EKS 쿠버네티스 버전](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html)을 검토하여 워크로드에 미치는 부정적인 영향을 파악해야 합니다.
- 비프로덕션 환경에서 클러스터 업그레이드를 테스트하고 현재 워크로드 및 컨트롤러에 미치는 영향을 파악해 보십시오. 새 쿠버네티스 버전으로 이동하기 전에 애플리케이션, 컨트롤러 및 사용자 지정 통합의 호환성을 테스트하는 지속적 통합 워크플로를 구축하여 테스트를 자동화할 수 있습니다.
- 클러스터를 업그레이드한 후 쿠버네티스 애드온을 업그레이드해야 할 수도 있습니다. [Amazon EKS 클러스터 쿠버네티스 버전 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/update-cluster.html)를 검토하여 클러스터 애드온과 클러스터 버전의 호환성을 검증하십시오.
- [컨트롤 플레인 로깅](https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html)을 켜고 로그에서 오류가 있는지 검토해 보십시오.
- EKS 클러스터를 관리할 때는 `eksctl`을 사용하는 것을 고려해 보십시오. `eksctl`을 사용하여 [컨트롤 플레인, 애드온, 워커 노드 업데이트](https://eksctl.io/usage/cluster-upgrade/)할 수 있습니다.
- EKS 컨트롤 플레인 업그레이드에는 워커 노드 업그레이드가 포함되지 않습니다. EKS 워커 노드 업데이트는 사용자의 책임입니다. 워커 노드 업그레이드 프로세스를 자동화하려면 [EKS 관리 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html) 또는 [EKS on Fargate](https://docs.aws.amazon.com/eks/latest/userguide/fargate.html)를 사용하는 것을 고려해 보십시오.
- 필요한 경우 [`kubectl convert`](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/#install-kubectl-convert-plugin) 플러그인을 사용하여 [쿠버네티스 매니페스트 파일을 다른 API 버전 간에 변환](https://kubernetes.io/docs/tasks/tools/included/kubectl-convert-overview/)할 수 있습니다
## 대규모 클러스터 실행
EKS는 컨트롤 플레인 인스턴스의 부하를 능동적으로 모니터링하고 자동으로 확장하여 고성능을 보장합니다. 하지만 대규모 클러스터를 실행할 때는 쿠버네티스 및 AWS 서비스의 할당량 내에서 발생할 수 있는 성능 문제와 한계를 고려해야 합니다.
- [ProjectCalico 팀에서 수행한 테스트](https://www.projectcalico.org/comparing-kube-proxy-modes-iptables-or-ipvs/)에 따르면, 서비스가 1000개 이상인 클러스터에서 `iptables` 모드에서 `kube-proxy`를 사용할 경우 네트워크 지연이 발생할 수 있습니다. 해결 방법은 [`ipvs` 모드에서 `kube-proxy`로 실행](../../networking/ipvs/index.ko.md)으로 전환하는 것입니다.
- CNI에서 파드의 IP 주소를 요청해야 하거나 새 EC2 인스턴스를 자주 생성해야 하는 경우에도 [EC2 API 요청 제한](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)이 발생할 수 있습니다. IP 주소를 캐싱하도록 CNI를 구성하면 EC2 API 호출을 줄일 수 있습니다. 더 큰 EC2 인스턴스 유형을 사용하여 EC2 조정 이벤트를 줄일 수 있습니다.
## 한도 및 서비스 할당량 알아보기
AWS는 실수로 리소스를 과도하게 프로비저닝하는 것을 방지하기 위해 서비스 한도(팀이 요청할 수 있는 각 리소스 수의 상한선)를 설정합니다. [Amazon EKS 서비스 할당량](https://docs.aws.amazon.com/eks/latest/userguide/service-quotas.html)에는 서비스 한도가 나와 있습니다. [AWS 서비스 할당량](https://docs.aws.amazon.com/eks/latest/userguide/service-quotas.html)을 사용하여 변경할 수 있는 두 가지 유형의 한도, Soft limit가 있습니다. Hard limit는 변경할 수 없습니다. 애플리케이션을 설계할 때는 이러한 값을 고려해야 합니다. 이러한 서비스 제한을 정기적으로 검토하여 애플리케이션 설계 중에 통합하는 것이 좋습니다.
- 오케스트레이션 엔진의 제한 외에도 ELB(Elastic Load Balancing) 및 Amazon VPC와 같은 다른 AWS 서비스에는 애플리케이션 성능에 영향을 미칠 수 있는 제한이 있습니다.
- EC2 한도에 대한 자세한 내용은 [EC2 서비스 제한](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html)을 참조하십시오.
- 각 EC2 인스턴스는 [Amazon 제공 DNS 서버](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-dns.html#vpc-dns-limits)로 전송할 수 있는 패킷 수를 네트워크 인터페이스당 초당 최대 1024 패킷으로 제한합니다.
- EKS 환경에서 etcd 스토리지 한도는 [업스트림 지침](https://etcd.io/docs/v3.5/dev-guide/limit/#storage-size-limit)에 따라 **8GB**입니다. etcd db 크기를 추적하려면 `etcd_db_total_size_in_bytes` 지표를 모니터링하십시오. 이 모니터링을 설정하려면 [경고 규칙](https://github.com/etcd-io/etcd/blob/main/contrib/mixin/mixin.libsonnet#L213-L240) `etcdBackendQuotaLowSpace` 및 `etcdExcessiveDatabaseGrowth`를 참조할 수 있습니다.
## 추가 리소스:
- [Amazon EKS 워커 노드의 클러스터 네트워킹에 대한 이해하기 쉬운 설명](https://aws.amazon.com/blogs/containers/de-mystifying-cluster-networking-for-amazon-eks-worker-nodes/)
- [아마존 EKS 클러스터 엔드포인트 액세스 제어](https://docs.aws.amazon.com/eks/latest/userguide/cluster-endpoint.html)
- [AWS re:Invent 2019: 아마존 EKS 언더 더 후드 (CON421-R1)](https://www.youtube.com/watch?v=7vxDWDD2YnM) | eks | search exclude true EKS Amazon Elastic Kubernetes Service EKS AWS EKS EC2 API Amazon EKS EKS EKS EKS EKS EKS VPC EKS API API kube controller manager API EKS AWS AZ 2 API etcd 3 AZ EKS AZ NAT API etcd AZ EKS Amazon EKS API kubectl NLB API EKS AZ ENI https docs aws amazon com AWSEC2 latest UserGuide using eni html EKS images eks data plane connectivity jpeg API https docs aws amazon com eks latest userguide cluster endpoint html VPC EKS ENI API EKS ENI API API metrics kubectl shell kubectl get raw metrics https github com prometheus docs blob master content docs instrumenting exposition formats md 2020 5 CloudWatch CloudWatch Container Insights Amazon CloudWatch EKS Prometheus KPI https docs aws amazon com AmazonCloudWatch latest monitoring ContainerInsights Prometheus Setup configure html ContainerInsights Prometheus Setup new exporters CloudWatch API https github com kubernetes apiserver blob master pkg endpoints metrics metrics go apiserver request duration seconds API API apiserver request total HTTP API apiserver request duration seconds apiserver admission controller admission duration seconds admission controller API apiserver admission webhook rejection count admission webhook calling webhook error apiserver internal error no error rest client request duration seconds URL rest client requests total HTTP etcd etcd request duration seconds Etcd etcd db total size in bytes br apiserver storage db total size in bytes EKS v1 26 Etcd https grafana com grafana dashboards 14623 API etcd etcd API kube apiserver EKS v1 26 text max etcd db total size in bytes job kube apiserver 8 1024 1024 1024 EKS bearer https kubernetes io docs reference access authn authz authentication service account tokens https kubernetes io docs reference access authn authz authentication webhook token authentication IAM API IAM base 64 URL AWS AWS CLI https aws amazon com cli EKS IAM aws auth configmap https docs aws amazon com eks latest userguide add user role html EKS aws auth EKS AWS IAM bearer super admin kubectl n kube system create serviceaccount super admin super admin cluster admin kubectl create clusterrolebinding super admin rb clusterrole cluster admin serviceaccount kube system super admin secret name kubectl n kube system get serviceaccount super admin o jsonpath secrets 0 name SECRET NAME kubectl n kube system get serviceaccount super admin o jsonpath secrets 0 name kubeconfig TOKEN kubectl n kube system get secret SECRET NAME o jsonpath data token base64 decode super admin kubeconfig kubectl config set credentials super admin token TOKEN kubeconfig apiVersion v1 clusters cluster certificate authority data REDACTED server https CLUSTER gr7 us west 2 eks amazonaws com name arn aws eks us west 2 account number cluster cluster name contexts context cluster arn aws eks us west 2 account number cluster cluster name user super admin name arn aws eks us west 2 account number cluster cluster name current context arn aws eks us west 2 account number cluster cluster name kind Config preferences users name arn aws eks us west 2 account number cluster cluster name user exec apiVersion client authentication k8s io v1alpha1 args region us west 2 eks get token cluster name cluster name command aws env null name super admin user token super admin sa s secret Admission Webhooks admission webhooks https kubernetes io docs reference access authn authz extensible admission controllers admission webhooks API API EKS catch all name pod policy example com rules apiGroups apiVersions operations resources scope 30 Fail Open sysctls Sysctl sysctl systcls sysctls sysctl sysctls kubelet sysctl sysctls OPA https github com open policy agent gatekeeper library blob 377cb915dba2db10702c25ef1ee374b4aa8d347a src pod security policy forbidden sysctls constraint tmpl Kyverno https kyverno io policies pod security baseline restrict sysctls restrict sysctls 2021 4 4 1 21 1 22 15 https kubernetes io blog 2021 07 20 new kubernetes release cadence what s changing and when 1 19 12 EKS 3 EKS 60 EKS EKS https docs aws amazon com eks latest userguide kubernetes versions html EKS https docs aws amazon com eks latest userguide platform versions html in place in place VMware Velero https github com vmware tanzu velero API https kubernetes io docs reference using api deprecation policy https github com kubernetes kubernetes tree master CHANGELOG Amazon EKS https docs aws amazon com eks latest userguide kubernetes versions html Amazon EKS https docs aws amazon com eks latest userguide update cluster html https docs aws amazon com eks latest userguide control plane logs html EKS eksctl eksctl https eksctl io usage cluster upgrade EKS EKS EKS https docs aws amazon com eks latest userguide managed node groups html EKS on Fargate https docs aws amazon com eks latest userguide fargate html kubectl convert https kubernetes io docs tasks tools install kubectl linux install kubectl convert plugin API https kubernetes io docs tasks tools included kubectl convert overview EKS AWS ProjectCalico https www projectcalico org comparing kube proxy modes iptables or ipvs 1000 iptables kube proxy ipvs kube proxy networking ipvs index ko md CNI IP EC2 EC2 API https docs aws amazon com AWSEC2 latest APIReference throttling html IP CNI EC2 API EC2 EC2 AWS Amazon EKS https docs aws amazon com eks latest userguide service quotas html AWS https docs aws amazon com eks latest userguide service quotas html Soft limit Hard limit ELB Elastic Load Balancing Amazon VPC AWS EC2 EC2 https docs aws amazon com AWSEC2 latest UserGuide ec2 resource limits html EC2 Amazon DNS https docs aws amazon com vpc latest userguide vpc dns html vpc dns limits 1024 EKS etcd https etcd io docs v3 5 dev guide limit storage size limit 8GB etcd db etcd db total size in bytes https github com etcd io etcd blob main contrib mixin mixin libsonnet L213 L240 etcdBackendQuotaLowSpace etcdExcessiveDatabaseGrowth Amazon EKS https aws amazon com blogs containers de mystifying cluster networking for amazon eks worker nodes EKS https docs aws amazon com eks latest userguide cluster endpoint html AWS re Invent 2019 EKS CON421 R1 https www youtube com watch v 7vxDWDD2YnM |
eks search exclude true 2 EKS | ---
search:
exclude: true
---
# EKS 데이터 플레인
가용성과 복원력이 뛰어난 애플리케이션을 운영하려면 가용성과 복원력이 뛰어난 데이터 플레인이 필요합니다. 탄력적인 데이터 플레인을 사용하면 쿠버네티스가 애플리케이션을 자동으로 확장하고 복구할 수 있습니다. 복원력이 뛰어난 데이터 플레인은 2개 이상의 워커 노드로 구성되며, 워크로드에 따라 확장 및 축소될 수 있으며 장애 발생 시 자동으로 복구할 수 있습니다.
EKS를 사용하는 워커 노드에는 [EC2 인스턴스](https://docs.aws.amazon.com/eks/latest/userguide/worker.html)와 [Fargate] (https://docs.aws.amazon.com/eks/latest/userguide/fargate.html)라는 두 가지 옵션이 있습니다. EC2 인스턴스를 선택하면 워커 노드를 직접 관리하거나 [EKS 관리 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html)을 사용할 수 있습니다. 관리형 워커 노드와 자체 관리형 워커 노드와 Fargate가 혼합된 클러스터를 구성할 수 있습니다.
Fargate의 EKS는 복원력이 뛰어난 데이터 플레인을 위한 가장 쉬운 방법을 제공합니다. Fargate는 격리된 컴퓨팅 환경에서 각 파드를 실행합니다. Fargate에서 실행되는 각 파드에는 자체 워커 노드가 있습니다. 쿠버네티스가 파드를 확장함에 따라 Fargate는 데이터 플레인을 자동으로 확장합니다. [horizontal pod autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html)를 사용하여 데이터 플레인과 워크로드를 모두 확장할 수 있습니다.
EC2 워커 노드를 확장하는 데 선호되는 방법은 [쿠버네티스 Cluster Autoscaler](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md), [EC2 Auto Scaling 그룹](https://docs.aws.amazon.com/autoscaling/ec2/userguide/AutoScalingGroup.html) 또는 [Atlassian's Esclator](https://github.com/atlassian/escalator)와 같은 커뮤니티 프로젝트를 사용하는 것입니다.
## 권장 사항
### EC2 오토 스케일링 그룹을 사용하여 워커 노드 생성
개별 EC2 인스턴스를 생성하여 클러스터에 조인하는 대신 EC2 오토 스케일링 그룹을 사용하여 워커 노드를 생성하는 것이 가장 좋습니다. 오토 스케일링 그룹은 종료되거나 장애가 발생한 노드를 자동으로 교체하므로 클러스터가 항상 워크로드를 실행할 수 있는 용량을 확보할 수 있습니다.
### 쿠버네티스 Cluster Autoscaler를 사용하여 노드를 확장하세요
Cluster Autoscaler는 클러스터의 리소스가 충분하지 않아 실행할 수 없는 파드가 있을 때 데이터 플레인 크기를 조정하며, 다른 워커 노드를 추가하여 도움을 줍니다. Cluster Autoscaler는 반응형 프로세스이긴 하지만 클러스터의 용량이 충분하지 않아 파드가 *pending* 상태가 될 때까지 기다립니다. 이러한 이벤트가 발생하면 클러스터에 EC2 인스턴스가 추가됩니다. 클러스터의 용량이 부족해지면 워커 노드가 추가될 때까지 새 복제본 또는 새 파드를 사용할 수 없게 됩니다(*Pending 상태*). 데이터 플레인이 워크로드 수요를 충족할 만큼 충분히 빠르게 확장되지 않는 경우 이러한 지연은 애플리케이션의 신뢰성에 영향을 미칠 수 있습니다. 워커 노드의 사용률이 지속적으로 낮고 해당 노드의 모든 파드를 다른 워커 노드에 스케줄링할 수 있는 경우 Cluster Autoscaler는 해당 워커 노드를 종료합니다.
### Cluster Autoscaler를 사용하여 오버 프로비저닝을 구성합니다.
Cluster Autoscaler는 클러스터의 파드가 이미 *pending* 상태일 때 데이터 플레인 스케일링을 트리거합니다. 따라서 애플리케이션에 더 많은 복제본이 필요한 시점과 실제로 더 많은 복제본을 가져오는 시점 사이에 지연이 있을 수 있습니다. 이러한 지연을 방지할 수 있는 방법은 필요한 것보다 많은 복제본을 추가하여 애플리케이션의 복제본 수를 늘리는 것입니다.
Cluster Autoscaler에서 권장하는 또 다른 패턴은 [*pause* 파드와 우선순위 선점 기능](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-can-i-configure-overprovisioning-with-cluster-autoscaler)입니다. *pause 파드*는 [pause 컨테이너](https://github.com/kubernetes/kubernetes/tree/master/build/pause)를 실행하는데, 이름에서 알 수 있듯이 클러스터의 다른 파드에서 사용할 수 있는 컴퓨팅 용량의 placeholder 역할을 하는 것 외에는 아무것도 하지 않습니다. *매우 낮은 할당 우선 순위*로 실행되기 때문에, 다른 파드를 생성해야 하고 클러스터에 가용 용량이 없을 때 일시 중지 파드가 노드에서 제거됩니다. 쿠버네티스 스케줄러는 pause 파드의 축출을 감지하고 스케줄을 다시 잡으려고 합니다. 하지만 클러스터가 최대 용량으로 실행되고 있기 때문에 일시 중지 파드는 *pending* 상태로 유지되며, Cluster Autoscaler는 이에 대응하여 노드를 추가합니다.
### 여러 오토 스케일링 그룹과 함께 Cluster Autoscaler 사용
`--node-group-auto-discovery` 플래그를 활성화한 상태로 Cluster Autoscaler를 실행합니다.이렇게 하면 Cluster Autoscaler가 정의된 특정 태그가 포함된 모든 오토스케일링 그룹을 찾을 수 있으므로 매니페스트에서 각 오토스케일링 그룹을 정의하고 유지할 필요가 없습니다.
### 로컬 스토리지와 함께 Cluster Autoscaler 사용
기본적으로 Cluster Autoscaler는 로컬 스토리지가 연결된 상태로 배포된 파드가 있는 노드를 축소하지 않습니다. `--skip-nodes-with-local-storage` 플래그를 false로 설정하면 Cluster Autoscaler가 이러한 노드를 축소할 수 있습니다.
### 워커 노드와 워크로드를 여러 AZ에 분산합니다.
여러 AZ에서 워커 노드와 파드를 실행하여 개별 AZ에서 장애가 발생하지 않도록 워크로드를 보호할 수 있습니다. 노드를 생성하는 서브넷을 사용하여 워커 노드가 생성되는 AZ를 제어할 수 있습니다.
쿠버네티스 1.18+를 사용하는 경우 AZ에 파드를 분산하는 데 권장되는 방법은 [파드에 대한 토폴로지 분산 제약](https://kubernetes.io/docs/concepts/workloads/pods/pod-topology-spread-constraints/#spread-constraints-for-pods)을 사용하는 것입니다.
아래 디플로이먼트는 가능한 경우 AZ에 파드를 분산시키고, 그렇지 않을 경우 해당 파드는 그냥 실행되도록 합니다.
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: web-server
spec:
replicas: 3
selector:
matchLabels:
app: web-server
template:
metadata:
labels:
app: web-server
spec:
topologySpreadConstraints:
- maxSkew: 1
whenUnsatisfiable: ScheduleAnyway
topologyKey: topology.kubernetes.io/zone
labelSelector:
matchLabels:
app: web-server
containers:
- name: web-app
image: nginx
resources:
requests:
cpu: 1
```
!!! note
`kube-scheduler`는 해당 레이블이 있는 노드를 통한 토폴로지 도메인만 인식합니다. 위의 디플로이먼트를 단일 존에만 노드가 있는 클러스터에 배포하면, `kube-scheduler`가 다른 존을 인식하지 못하므로 모든 파드가 해당 노드에서 스케줄링됩니다. 이 Topology Spread가 스케줄러와 함께 예상대로 작동하려면 모든 존에 노드가 이미 있어야 합니다. 이 문제는 쿠버네티스 1.24에서 `MinDomainsInPodToplogySpread` [기능 게이트](https://kubernetes.io/docs/concepts/workloads/pods/pod-topology-spread-constraints/#api)가 추가되면서 해결될 것입니다. 이 기능을 사용하면 스케줄러에 적격 도메인 수를 알리기 위해 `MinDomains` 속성을 지정할 수 있습니다.
!!! warning
`whenUnsatisfiable`를 `Donot Schedule`로 설정하면 Topology Spread Constraints을 충족할 수 없는 경우 파드를 스케줄링할 수 없게 됩니다. Topology Spread Constraints을 위반하는 대신 파드를 실행하지 않는 것이 더 좋은 경우에만 설정해야 합니다.
이전 버전의 쿠버네티스에서는 파드 anti-affinity 규칙을 사용하여 여러 AZ에 걸쳐 파드를 스케줄링할 수 있습니다. 아래 매니페스트는 쿠버네티스 스케줄러에게 별개의 AZ에서 파드를 스케줄링하는 것을 *선호*한다고 알려줍니다.
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: web-server
labels:
app: web-server
spec:
replicas: 4
selector:
matchLabels:
app: web-server
template:
metadata:
labels:
app: web-server
spec:
affinity:
podAntiAffinity:
preferredDuringSchedulingIgnoredDuringExecution:
- podAffinityTerm:
labelSelector:
matchExpressions:
- key: app
operator: In
values:
- web-server
topologyKey: failure-domain.beta.kubernetes.io/zone
weight: 100
containers:
- name: web-app
image: nginx
```
!!! warning
파드를 서로 다른 AZ에 스케줄할 필요는 없습니다. 그렇지 않으면 디플로이먼트의 파드 수가 AZ 수를 절대 초과하지 않습니다.
### EBS 볼륨을 사용할 때 각 AZ의 용량을 확보하십시오.
[Amazon EBS를 사용하여 영구 볼륨 제공](https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html)을 사용하는 경우 파드 및 관련 EBS 볼륨이 동일한 AZ에 있는지 확인해야 합니다. 이 글을 쓰는 시점에서 EBS 볼륨은 단일 AZ 내에서만 사용할 수 있습니다. 파드는 다른 AZ에 위치한 EBS 지원 영구 볼륨에 액세스할 수 없습니다. 쿠버네티스 [스케줄러는 워커 노드가 어느 AZ에 위치하는지 알고 있습니다](https://kubernetes.io/docs/reference/kubernetes-api/labels-annotations-taints/#topologykubernetesiozone). 쿠버네티스는 해당 볼륨과 동일한 AZ에 EBS 볼륨이 필요한 파드를 항상 스케줄링합니다. 하지만 볼륨이 위치한 AZ에 사용 가능한 워커 노드가 없는 경우 파드를 스케줄링할 수 없습니다.
클러스터가 항상 필요한 EBS 볼륨과 동일한 AZ에 파드를 스케줄링할 수 있는 용량을 확보할 수 있도록 충분한 용량을 갖춘 각 AZ에 오토 스케일링 그룹을 생성하십시오. 또한 클러스터 오토스케일러에서 `--balance-similar-similar-node groups` 기능을 활성화해야 합니다.
EBS 볼륨을 사용하지만 가용성을 높이기 위한 요구 사항이 없는 애플리케이션을 실행 중인 경우 애플리케이션 배포를 단일 AZ로 제한할 수 있습니다. EKS에서는 워커 노드에 AZ 이름이 포함된 `failure-domain.beta.kubernetes.io/zone` 레이블이 자동으로 추가됩니다. `kubectl get nodes --show-labels`를 실행하여 노드에 첨부된 레이블을 확인할 수 있습니다. 빌트인 노드 레이블에 대한 자세한 내용은 [여기] (https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#built-in-node-labels)에서 확인할 수 있습니다. 노드 셀렉터를 사용하여 특정 AZ에서 파드를 스케줄링할 수 있습니다.
아래 예시에서는 파드가 `us-west-2c` AZ에서만 스케줄링됩니다.
```
apiVersion: v1
kind: Pod
metadata:
name: single-az-pod
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: failure-domain.beta.kubernetes.io/zone
operator: In
values:
- us-west-2c
containers:
- name: single-az-container
image: kubernetes/pause
```
퍼시스턴트 볼륨(EBS 지원) 역시 AZ 이름으로 자동 레이블이 지정됩니다. `kubectl get pv -L topology.ebs.csi.aws.com/zone` 명령을 실행해 퍼시스턴트 볼륨이 어느 AZ에 속하는지 확인할 수 있습니다. 파드가 생성되고 볼륨을 요청하면, 쿠버네티스는 해당 볼륨과 동일한 AZ에 있는 노드에 파드를 스케줄링합니다.
노드 그룹이 하나인 EKS 클러스터가 있는 시나리오를 생각해 보십시오. 이 노드 그룹에는 3개의 AZ에 분산된 세 개의 워커 노드가 있습니다. EBS 지원 퍼시스턴트 볼륨을 사용하는 애플리케이션이 있습니다. 이 애플리케이션과 해당 볼륨을 생성하면 해당 파드가 세 개의 AZ 중 첫 번째 AZ에 생성됩니다. 그러면 이 파드를 실행하는 워커 노드가 비정상 상태가 되고 이후에는 사용할 수 없게 된다. Cluster Autoscaler는 비정상 노드를 새 워커 노드로 교체합니다. 그러나 자동 확장 그룹이 세 개의 AZ에 걸쳐 있기 때문에 상황에 따라 새 워커 노드가 두 번째 또는 세 번째 AZ에서 시작될 수 있지만 첫 번째 AZ에서는 실행되지 않을 수 있습니다. AZ 제약이 있는 EBS 볼륨은 첫 번째 AZ에만 존재하고 해당 AZ에는 사용 가능한 워커 노드가 없으므로 파드를 스케줄링할 수 없습니다. 따라서 각 AZ에 노드 그룹을 하나씩 생성해야 합니다. 그래야 다른 AZ에서 스케줄링할 수 없는 파드를 실행할 수 있는 충분한 용량이 항상 확보됩니다.
또는 영구 스토리지가 필요한 애플리케이션을 실행할 때 [EFS] (https://github.com/kubernetes-sigs/aws-efs-csi-driver)를 사용하여 클러스터 자동 크기 조정을 단순화할 수 있습니다. 클라이언트는 리전 내 모든 AZ에서 동시에 EFS 파일 시스템에 액세스할 수 있습니다. EFS 기반 퍼시스턴트 볼륨을 사용하는 파드가 종료되어 다른 AZ에 스케줄되더라도 볼륨을 마운트할 수 있습니다.
### 노드 문제 감지기 실행
워커 노드의 장애는 애플리케이션의 가용성에 영향을 미칠 수 있습니다. [node-problem-detector](https://github.com/kubernetes/node-problem-detector)는 클러스터에 설치하여 워커 노드 문제를 탐지할 수 있는 쿠버네티스 애드온입니다. [npd의 치료 시스템](https://github.com/kubernetes/node-problem-detector#remedy-systems)을 사용하여 노드를 자동으로 비우고 종료할 수 있습니다.
### 시스템 및 쿠버네티스 데몬을 위한 리소스 예약
[운영 체제 및 쿠버네티스 데몬을 위한 컴퓨팅 용량를 예약](https://kubernetes.io/docs/tasks/administer-cluster/reserve-compute-resources/)하여 워커 노드의 안정성을 개선할 수 있습니다. 파드, 특히 `limits`이 선언되지 않은 파드는 시스템 리소스를 포화시켜 운영체제 프로세스와 쿠버네티스 데몬 (`kubelet`, 컨테이너 런타임 등)이 시스템 리소스를 놓고 파드와 경쟁하는 상황에 놓이게 됩니다.`kubelet` 플래그 `--system-reserved`와 `--kube-reserved`를 사용하여 시스템 프로세스 (`udev`, `sshd` 등)와 쿠버네티스 데몬을 위한 리소스를 각각 예약할 수 있습니다.
[EKS에 최적화된 Linux AMI](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-ami.html)를 사용하는 경우 CPU, 메모리 및 스토리지는 기본적으로 시스템 및 쿠버네티스 데몬용으로 예약됩니다. 이 AMI를 기반으로 하는 워커 노드가 시작되면 [`bootstrap.sh` 스크립트](https://github.com/awslabs/amazon-eks-ami/blob/master/files/bootstrap.sh) 를 트리거하도록 EC2 사용자 데이터가 구성됩니다. 이 스크립트는 EC2 인스턴스에서 사용할 수 있는 CPU 코어 수와 총 메모리를 기반으로 CPU 및 메모리 예약을 계산합니다. 계산된 값은 `/etc/kubernetes/kubelet/kubelet-config.json`에 있는 `KubeletConfiguration` 파일에 기록됩니다.
노드에서 사용자 지정 데몬을 실행하고 기본적으로 예약된 CPU 및 메모리 양이 충분하지 않은 경우 시스템 리소스 예약을 늘려야 할 수 있습니다.
`eksctl`은 [시스템 및 쿠버네티스 데몬의 리소스 예약](https://eksctl.io/usage/customizing-the-kubelet/)을 사용자 지정하는 가장 쉬운 방법을 제공합니다.
### QoS 구현
중요한 애플리케이션의 경우, 파드의 컨테이너에 대해 `requests`=`limits` 정의를 고려해보십시오. 이렇게 하면 다른 파드가 리소스를 요청하더라도 컨테이너가 종료되지 않습니다.
모든 컨테이너에 CPU 및 메모리 제한을 적용하는 것이 가장 좋습니다. 이렇게 하면 컨테이너가 실수로 시스템 리소스를 소비하여 같은 위치에 배치된 다른 프로세스의 가용성에 영향을 미치는 것을 방지할 수 있기 때문입니다.
### 모든 워크로드에 대한 리소스 요청/제한 구성 및 크기 조정
리소스 요청의 크기 조정 및 워크로드 한도에 대한 몇 가지 일반적인 지침을 적용할 수 있습니다.
- CPU에 리소스 제한을 지정하지 마십시오. 제한이 없는 경우 요청은 [컨테이너의 상대적 CPU 사용 시간](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/#how-pods-with-resource-limits-are-run)에 가중치 역할을 합니다. 이렇게 하면 인위적인 제한이나 과다 현상 없이 워크로드에서 CPU 전체를 사용할 수 있습니다.
- CPU가 아닌 리소스의 경우, `requests`=`limits`를 구성하면 가장 예측 가능한 동작이 제공됩니다. 만약 `requests`!=`limits`이면, 컨테이너의 [QOS](https://kubernetes.io/docs/tasks/configure-pod-container/quality-service-pod/#qos-classes)도 Guaranteed에서 Burstable로 감소하여 [node pressure](https://kubernetes.io/docs/concepts/scheduling-eviction/node-pressure-eviction/) 이벤트에 축출될 가능성이 높아졌습니다.
- CPU가 아닌 리소스의 경우 요청보다 훨씬 큰 제한을 지정하지 마십시오. `limits`이 `requests`에 비해 크게 구성될수록 노드가 오버 커밋되어 워크로드가 중단될 가능성이 높아집니다.
- [Karpenter](https://aws.github.io/aws-eks-best-practices/karpenter/) 또는 [Cluster AutoScaler](https://aws.github.io/aws-eks-best-practices/cluster-autoscaling/)와 같은 노드 자동 크기 조정 솔루션을 사용할 때는 요청 크기를 올바르게 지정하는 것이 특히 중요합니다. 이러한 도구는 워크로드 요청을 검토하여 프로비저닝할 노드의 수와 크기를 결정합니다. 요청이 너무 작아 제한이 더 큰 경우, 워크로드가 노드에 꽉 차 있으면 워크로드가 제거되거나 OOM으로 종료될 수 있습니다.
리소스 요청을 결정하는 것은 어려울 수 있지만 [Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler)와 같은 도구를 사용하면 런타임 시 컨테이너 리소스 사용량을 관찰하여 요청 규모를 '적정'하게 조정할 수 있습니다. 요청 크기를 결정하는 데 유용할 수 있는 다른 도구는 다음과 같습니다.
- [Goldilocks](https://github.com/FairwindsOps/goldilocks)
- [Parca](https://www.parca.dev/)
- [Prodfiler](https://prodfiler.com/)
- [rsg](https://mhausenblas.info/right-size-guide/)
### 네임스페이스의 리소스 할당량 구성
네임스페이스는 사용자가 여러 팀 또는 프로젝트에 분산되어 있는 환경에서 사용하기 위한 것입니다. 이름 범위를 제공하고 클러스터 리소스를 여러 팀, 프로젝트, 워크로드 간에 나누는 방법입니다. 네임스페이스의 총 리소스 사용량을 제한할 수 있습니다. [`ResourceQuota`](https://kubernetes.io/docs/concepts/policy/resource-quotas/) 객체는 유형별로 네임스페이스에 만들 수 있는 개체 수와 해당 프로젝트의 리소스가 소비할 수 있는 총 컴퓨팅 리소스 양을 제한할 수 있습니다. 지정된 네임스페이스에서 요청할 수 있는 스토리지 및/또는 컴퓨팅(CPU 및 메모리) 리소스의 총합을 제한할 수 있습니다.
> CPU 및 메모리와 같은 컴퓨팅 리소스의 네임스페이스에 리소스 쿼터가 활성화된 경우 사용자는 해당 네임스페이스의 각 컨테이너에 대한 요청 또는 제한을 지정해야 합니다.
각 네임스페이스에 할당량을 구성하는 것을 고려해 보십시오. 네임스페이스 내의 컨테이너에 사전 구성된 제한을 자동으로 적용하려면 `LimitRanges`를 사용해 보십시오.
### 네임스페이스 내에서 컨테이너 리소스 사용을 제한합니다.
리소스 쿼터는 네임스페이스가 사용할 수 있는 리소스의 양을 제한하는 데 도움이 됩니다. [`LimitRange` 개체](https://kubernetes.io/docs/concepts/policy/limit-range/)는 컨테이너가 요청할 수 있는 최소 및 최대 리소스를 구현하는 데 도움이 될 수 있습니다. `LimitRange`를 사용하면 컨테이너에 대한 기본 요청 및 제한을 설정할 수 있는데, 이는 컴퓨팅 리소스 제한을 설정하는 것이 조직의 표준 관행이 아닌 경우에 유용합니다. 이름에서 알 수 있듯이, `LimitRange`는 네임스페이스의 파드 또는 컨테이너당 최소 및 최대 컴퓨팅 리소스 사용량을 적용할 수 있습니다. 또한 네임스페이스에서 퍼시스턴트볼륨클레임당 최소 및 최대 스토리지 요청을 적용할 수 있습니다.
컨테이너와 네임스페이스 수준에서 제한을 적용하려면 `LimitRange`와 `ResourceQuota`를 함께 사용하는 것이 좋습니다. 이러한 제한을 설정하면 컨테이너 또는 네임스페이스가 클러스터의 다른 테넌트가 사용하는 리소스에 영향을 주지 않도록 할 수 있습니다.
## CoreDNS
CoreDNS는 쿠버네티스에서 이름 확인 및 서비스 검색 기능을 수행합니다. EKS 클러스터에 기본적으로 설치됩니다. 상호 운용성을 위해 CoreDNS용 쿠버네티스 서비스의 이름은 여전히 [kube-dns](https://kubernetes.io/docs/tasks/administer-cluster/dns-custom-nameservers/)로 지정됩니다. CoreDNS 파드는 디플로이먼트의 일부로 `kube-system` 네임스페이스에서 실행되며, EKS에서는 기본적으로 요청과 제한이 선언된 두 개의 복제본을 실행합니다. DNS 쿼리는 `kube-system` 네임스페이스에서 실행되는 `kube-dns` 서비스로 전송됩니다.
## 권장 사항
### 핵심 DNS 지표 모니터링
CoreDNS는 [프로메테우스](https://github.com/coredns/coredns/tree/master/plugin/metrics)에 대한 지원을 내장하고 있습니다. 특히 CoreDNS 지연 시간(`coredns_dns_request_duration_seconds_sum`, [1.7.0](https://github.com/coredns/coredns/blob/master/notes/coredns-1.7.0.md) 버전 이전에는 메트릭이 `core_dns_response_rcode_count_total`이라고 불렸음), 오류 (`coredns_dns_responses_total`, NXDOMAIN, SERVFAIL, FormErr) 및 CoreDNS 파드의 메모리 사용량에 대한 모니터링을 고려해야 합니다.
문제 해결을 위해 kubectl을 사용하여 CoreDNS 로그를 볼 수 있습니다.
```shell
for p in $(kubectl get pods —namespace=kube-system -l k8s-app=kube-dns -o name); do kubectl logs —namespace=kube-system $p; done
```
### 노드 로컬 DNS 캐시 사용
[노드 로컬 DNS 캐시](https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/)를 실행하여 클러스터 DNS 성능을 개선할 수 있습니다. 이 기능은 클러스터 노드에서 DNS 캐싱 에이전트를 데몬셋으로 실행합니다. 모든 파드는 이름 확인을 위해 `kube-dns` 서비스를 사용하는 대신 노드에서 실행되는 DNS 캐싱 에이전트를 사용합니다.
### CoreDNS의 cluster-proportional-scaler를 구성합니다.
클러스터 DNS 성능을 개선하는 또 다른 방법은 클러스터의 노드 및 CPU 코어 수에 따라 [CoreDNS 배포를 자동으로 수평으로 확장](https://kubernetes.io/docs/tasks/administer-cluster/dns-horizontal-autoscaling/#enablng-dns-horizontal-autoscaling)하는 것입니다. [수평 클러스터 비례 자동 확장](https://github.com/kubernetes-sigs/cluster-proportional-autoscaler/blob/master/README.md)은 스케줄 가능한 데이터 플레인의 크기에 따라 디플로이먼트의 복제본 수를 조정하는 컨테이너입니다.
노드와 노드의 CPU 코어 집계는 CoreDNS를 확장할 수 있는 두 가지 지표입니다. 두 지표를 동시에 사용할 수 있습니다. 더 큰 노드를 사용하는 경우 CoreDNS 스케일링은 CPU 코어 수를 기반으로 합니다. 반면 더 작은 노드를 사용하는 경우 CoreDNS 복제본의 수는 데이터 플레인의 CPU 코어에 따라 달라집니다. 비례 오토스케일러 구성은 다음과 같습니다.
```
linear: '{"coresPerReplica":256,"min":1,"nodesPerReplica":16}'
```
### 노드 그룹이 있는 AMI 선택
EKS는 고객이 자체 관리형 노드 그룹과 관리형 노드 그룹을 모두 생성하는 데 사용하는 최적화된 EC2 AMI를 제공합니다. 이러한 AMI는 지원되는 모든 쿠버네티스 버전에 대해 모든 리전에 게시됩니다. EKS는 CVE 또는 버그가 발견되면 이러한 AMI를 더 이상 사용되지 않는 것으로 표시합니다. 따라서 노드 그룹에 사용할 AMI를 선택할 때는 더 이상 사용되지 않는 AMI를 사용하지 않는 것이 좋습니다.
Ec2 describe-images api를 사용하여 아래 명령을 사용하여 더 이상 사용되지 않는 AMI를 필터링할 수 있습니다.
```
aws ec2 describe-images --image-id ami-0d551c4f633e7679c --no-include-deprecated
```
이미지 설명 출력에 DeprecationTime이 필드로 포함되어 있는지 확인하여 지원 중단된 AMI를 식별할 수도 있습니다. 예를 들면:
```
aws ec2 describe-images --image-id ami-xxx --no-include-deprecated
{
"Images": [
{
"Architecture": "x86_64",
"CreationDate": "2022-07-13T15:54:06.000Z",
"ImageId": "ami-xxx",
"ImageLocation": "123456789012/eks_xxx",
"ImageType": "machine",
"Public": false,
"OwnerId": "123456789012",
"PlatformDetails": "Linux/UNIX",
"UsageOperation": "RunInstances",
"State": "available",
"BlockDeviceMappings": [
{
"DeviceName": "/dev/xvda",
"Ebs": {
"DeleteOnTermination": true,
"SnapshotId": "snap-0993a2fc4bbf4f7f4",
"VolumeSize": 20,
"VolumeType": "gp2",
"Encrypted": false
}
}
],
"Description": "EKS Kubernetes Worker AMI with AmazonLinux2 image, (k8s: 1.19.15, docker: 20.10.13-2.amzn2, containerd: 1.4.13-3.amzn2)",
"EnaSupport": true,
"Hypervisor": "xen",
"Name": "aws_eks_optimized_xxx",
"RootDeviceName": "/dev/xvda",
"RootDeviceType": "ebs",
"SriovNetSupport": "simple",
"VirtualizationType": "hvm",
"DeprecationTime": "2023-02-09T19:41:00.000Z"
}
]
}
```
| eks | search exclude true EKS 2 EKS EC2 https docs aws amazon com eks latest userguide worker html Fargate https docs aws amazon com eks latest userguide fargate html EC2 EKS https docs aws amazon com eks latest userguide managed node groups html Fargate Fargate EKS Fargate Fargate Fargate horizontal pod autoscaler https docs aws amazon com eks latest userguide horizontal pod autoscaler html EC2 Cluster Autoscaler https github com kubernetes autoscaler blob master cluster autoscaler cloudprovider aws README md EC2 Auto Scaling https docs aws amazon com autoscaling ec2 userguide AutoScalingGroup html Atlassian s Esclator https github com atlassian escalator EC2 EC2 EC2 Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler pending EC2 Pending Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler pending Cluster Autoscaler pause https github com kubernetes autoscaler blob master cluster autoscaler FAQ md how can i configure overprovisioning with cluster autoscaler pause pause https github com kubernetes kubernetes tree master build pause placeholder pause pending Cluster Autoscaler Cluster Autoscaler node group auto discovery Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler skip nodes with local storage false Cluster Autoscaler AZ AZ AZ AZ 1 18 AZ https kubernetes io docs concepts workloads pods pod topology spread constraints spread constraints for pods AZ apiVersion apps v1 kind Deployment metadata name web server spec replicas 3 selector matchLabels app web server template metadata labels app web server spec topologySpreadConstraints maxSkew 1 whenUnsatisfiable ScheduleAnyway topologyKey topology kubernetes io zone labelSelector matchLabels app web server containers name web app image nginx resources requests cpu 1 note kube scheduler kube scheduler Topology Spread 1 24 MinDomainsInPodToplogySpread https kubernetes io docs concepts workloads pods pod topology spread constraints api MinDomains warning whenUnsatisfiable Donot Schedule Topology Spread Constraints Topology Spread Constraints anti affinity AZ AZ apiVersion apps v1 kind Deployment metadata name web server labels app web server spec replicas 4 selector matchLabels app web server template metadata labels app web server spec affinity podAntiAffinity preferredDuringSchedulingIgnoredDuringExecution podAffinityTerm labelSelector matchExpressions key app operator In values web server topologyKey failure domain beta kubernetes io zone weight 100 containers name web app image nginx warning AZ AZ EBS AZ Amazon EBS https docs aws amazon com eks latest userguide ebs csi html EBS AZ EBS AZ AZ EBS AZ https kubernetes io docs reference kubernetes api labels annotations taints topologykubernetesiozone AZ EBS AZ EBS AZ AZ balance similar similar node groups EBS AZ EKS AZ failure domain beta kubernetes io zone kubectl get nodes show labels https kubernetes io docs concepts configuration assign pod node built in node labels AZ us west 2c AZ apiVersion v1 kind Pod metadata name single az pod spec affinity nodeAffinity requiredDuringSchedulingIgnoredDuringExecution nodeSelectorTerms matchExpressions key failure domain beta kubernetes io zone operator In values us west 2c containers name single az container image kubernetes pause EBS AZ kubectl get pv L topology ebs csi aws com zone AZ AZ EKS 3 AZ EBS AZ AZ Cluster Autoscaler AZ AZ AZ AZ EBS AZ AZ AZ AZ EFS https github com kubernetes sigs aws efs csi driver AZ EFS EFS AZ node problem detector https github com kubernetes node problem detector npd https github com kubernetes node problem detector remedy systems https kubernetes io docs tasks administer cluster reserve compute resources limits kubelet kubelet system reserved kube reserved udev sshd EKS Linux AMI https docs aws amazon com eks latest userguide eks optimized ami html CPU AMI bootstrap sh https github com awslabs amazon eks ami blob master files bootstrap sh EC2 EC2 CPU CPU etc kubernetes kubelet kubelet config json KubeletConfiguration CPU eksctl https eksctl io usage customizing the kubelet QoS requests limits CPU CPU CPU https kubernetes io docs concepts configuration manage resources containers how pods with resource limits are run CPU CPU requests limits requests limits QOS https kubernetes io docs tasks configure pod container quality service pod qos classes Guaranteed Burstable node pressure https kubernetes io docs concepts scheduling eviction node pressure eviction CPU limits requests Karpenter https aws github io aws eks best practices karpenter Cluster AutoScaler https aws github io aws eks best practices cluster autoscaling OOM Vertical Pod Autoscaler https github com kubernetes autoscaler tree master vertical pod autoscaler Goldilocks https github com FairwindsOps goldilocks Parca https www parca dev Prodfiler https prodfiler com rsg https mhausenblas info right size guide ResourceQuota https kubernetes io docs concepts policy resource quotas CPU CPU LimitRanges LimitRange https kubernetes io docs concepts policy limit range LimitRange LimitRange LimitRange ResourceQuota CoreDNS CoreDNS EKS CoreDNS kube dns https kubernetes io docs tasks administer cluster dns custom nameservers CoreDNS kube system EKS DNS kube system kube dns DNS CoreDNS https github com coredns coredns tree master plugin metrics CoreDNS coredns dns request duration seconds sum 1 7 0 https github com coredns coredns blob master notes coredns 1 7 0 md core dns response rcode count total coredns dns responses total NXDOMAIN SERVFAIL FormErr CoreDNS kubectl CoreDNS shell for p in kubectl get pods namespace kube system l k8s app kube dns o name do kubectl logs namespace kube system p done DNS DNS https kubernetes io docs tasks administer cluster nodelocaldns DNS DNS kube dns DNS CoreDNS cluster proportional scaler DNS CPU CoreDNS https kubernetes io docs tasks administer cluster dns horizontal autoscaling enablng dns horizontal autoscaling https github com kubernetes sigs cluster proportional autoscaler blob master README md CPU CoreDNS CoreDNS CPU CoreDNS CPU linear coresPerReplica 256 min 1 nodesPerReplica 16 AMI EKS EC2 AMI AMI EKS CVE AMI AMI AMI Ec2 describe images api AMI aws ec2 describe images image id ami 0d551c4f633e7679c no include deprecated DeprecationTime AMI aws ec2 describe images image id ami xxx no include deprecated Images Architecture x86 64 CreationDate 2022 07 13T15 54 06 000Z ImageId ami xxx ImageLocation 123456789012 eks xxx ImageType machine Public false OwnerId 123456789012 PlatformDetails Linux UNIX UsageOperation RunInstances State available BlockDeviceMappings DeviceName dev xvda Ebs DeleteOnTermination true SnapshotId snap 0993a2fc4bbf4f7f4 VolumeSize 20 VolumeType gp2 Encrypted false Description EKS Kubernetes Worker AMI with AmazonLinux2 image k8s 1 19 15 docker 20 10 13 2 amzn2 containerd 1 4 13 3 amzn2 EnaSupport true Hypervisor xen Name aws eks optimized xxx RootDeviceName dev xvda RootDeviceType ebs SriovNetSupport simple VirtualizationType hvm DeprecationTime 2023 02 09T19 41 00 000Z |
eks exclude true Amazon EKS Karpenter Fargate EKS Anywhere AWS Outposts AWS Local Zone search | ---
search:
exclude: true
---
# 클러스터 업그레이드 모범 사례
이 안내서는 클러스터 관리자에게 Amazon EKS 업그레이드 전략을 계획하고 실행하는 방법을 보여줍니다. 또한 자체 관리형 노드, 관리형 노드 그룹, Karpenter 노드 및 Fargate 노드를 업그레이드하는 방법도 설명합니다. EKS Anywhere, 자체 관리형 쿠버네티스, AWS Outposts 또는 AWS Local Zone에 대한 지침은 포함되지 않습니다.
## 개요
쿠버네티스 버전은 컨트롤 플레인과 데이터 플레인을 모두 포함합니다.원활한 작동을 위해 컨트롤 플레인과 데이터 플레인 모두 동일한 [쿠버네티스 마이너 버전, 예: 1.24](https://kubernetes.io/releases/version-skew-policy/#supported-versions) 를 실행해야 합니다. AWS가 컨트롤 플레인을 관리하고 업그레이드하는 동안 데이터 플레인에서 워커 노드를 업데이트하는 것은 사용자의 책임입니다.
* **컨트롤 플레인** — 컨트롤 플레인 버전은 쿠버네티스 API 서버에서 정의합니다.EKS 클러스터에서는 AWS에서 이를 관리합니다.컨트롤 플레인 버전으로의 업그레이드는 AWS API를 사용하여 시작됩니다.
* **데이터 플레인** — 데이터 플레인 버전은 노드에서 실행되는 Kubelet 버전을 참조합니다.동일한 클러스터의 여러 노드라도 버전이 다를 수 있습니다. `kubectl get nodes` 명령어로 있는 모든 노드의 버전을 확인하세요.
## 업그레이드 전
Amazon EKS에서 쿠버네티스 버전을 업그레이드하려는 경우 업그레이드를 시작하기 전에 몇 가지 중요한 정책, 도구 및 절차를 마련해야 합니다.
* **지원 중단 정책 이해** — [쿠버네티스 지원 중단 정책](https://kubernetes.io/docs/reference/using-api/deprecation-policy/)이 어떻게 작동하는지 자세히 알아보세요. 기존 애플리케이션에 영향을 미칠 수 있는 향후 변경 사항을 숙지하세요. 최신 버전의 Kubernetes는 특정 API 및 기능을 단계적으로 중단하는 경우가 많으며, 이로 인해 애플리케이션 실행에 문제가 발생할 수 있습니다.
* **쿠버네티스 변경 로그 검토** — [Amazon EKS Kubernetes 버전](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html) 과 함께 [Kubernetes 변경 로그](https://github.com/kubernetes/kubernetes/tree/master/CHANGELOG) 를 철저히 검토하여 워크로드에 영향을 미칠 수 있는 주요 변경 사항 등 클러스터에 미칠 수 있는 영향을 파악하십시오.
* **클러스터 추가 기능 호환성 평가** — Amazon EKS는 새 버전이 출시되거나 클러스터를 새 Kubernetes 마이너 버전으로 업데이트한 후에 추가 기능을 자동으로 업데이트하지 않습니다.업그레이드하려는 클러스터 버전과 기존 클러스터 애드온의 호환성을 이해하려면 [애드온 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/managing-add-ons.html#updating-an-add-on) 를 검토하십시오.
* **컨트롤 플레인 로깅 활성화** — 업그레이드 프로세스 중에 발생할 수 있는 로그, 오류 또는 문제를 캡처하려면 [컨트롤 플레인 로깅](https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html)을 활성화합니다. 이러한 로그에 이상이 있는지 검토해 보십시오. 비프로덕션 환경에서 클러스터 업그레이드를 테스트하거나 자동화된 테스트를 지속적 통합 워크플로에 통합하여 애플리케이션, 컨트롤러 및 사용자 지정 통합과의 버전 호환성을 평가하세요.
* **클러스터 관리를 위한 eksctl 살펴보기** — [eksctl](https://eksctl.io/)을 사용하여 EKS 클러스터를 관리하는 것을 고려해 보십시오. 기본적으로 [컨트롤 플레인 업데이트, 애드온 관리, 워커 노드 업데이트 처리](https://eksctl.io/usage/cluster-upgrade/) 기능을 제공합니다.
* **EKS에서 관리형 노드 그룹 또는 Fargate를 선택하세요** — [EKS 관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html) 또는 [EKS Fargate](https://docs.aws.amazon.com/eks/latest/userguide/fargate.html)를 사용하여 워커 노드 업그레이드를 간소화하고 자동화합니다. 이러한 옵션을 사용하면 프로세스를 간소화하고 수동 개입을 줄일 수 있습니다.
* **kubectl Convert 플러그인 활용** — [kubectl convert 플러그인](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/#install-kubectl-convert-plugin)을 활용하여 서로 다른 API 버전 간에 [쿠버네티스 매니페스트 파일 변환](https://kubernetes.io/docs/tasks/tools/included/kubectl-convert-overview/)을 용이하게 합니다. 이를 통해 구성이 새로운 쿠버네티스 버전과의 호환성을 유지할 수 있습니다.
## 클러스터를 최신 상태로 유지
Amazon EKS의 공동 책임 모델을 반영하면 안전하고 효율적인 EKS 환경을 위해서는 쿠버네티스 업데이트를 최신 상태로 유지하는 것이 무엇보다 중요합니다.이러한 전략을 운영 워크플로에 통합하면 최신 기능 및 개선 사항을 최대한 활용하는 안전한 최신 클러스터를 유지할 수 있는 입지를 다질 수 있습니다. 전략:
* **지원되는 버전 정책** — 쿠버네티스 커뮤니티에 따라 Amazon EKS는 일반적으로 세 가지 활성 쿠버네티스 버전을 제공하고 매년 네 번째 버전은 지원 중단합니다. 지원 중단 통지는 버전이 지원 종료일에 도달하기 최소 60일 전에 발행됩니다. 자세한 내용은 [EKS 버전 FAQ](https://aws.amazon.com/eks/eks-version-faq/)를 참조하십시오.
* **자동 업그레이드 정책** — EKS 클러스터에서 쿠버네티스 업데이트를 계속 동기화하는 것이 좋습니다. 버그 수정 및 보안 패치를 포함한 쿠버네티스 커뮤니티 지원은 일반적으로 1년 이상 된 버전의 경우 중단됩니다. 또한 지원 중단된 버전에는 취약성 보고가 부족하여 잠재적 위험이 발생할 수 있습니다. 버전의 수명이 끝나기 전에 사전 업그레이드를 하지 못하면 자동 업그레이드가 트리거되어 워크로드와 시스템이 중단될 수 있습니다. 자세한 내용은 [EKS 버전 지원 정책](https://aws.amazon.com/eks/eks-version-support-policy/)을 참조하십시오.
* **업그레이드 런북 생성** — 업그레이드 관리를 위한 문서화된 프로세스를 수립하십시오. 사전 예방적 접근 방식의 일환으로 업그레이드 프로세스에 맞는 런북 및 특수 도구를 개발하십시오. 이를 통해 대비 능력이 향상될 뿐만 아니라 복잡한 전환도 간소화됩니다. 적어도 1년에 한 번 클러스터를 업그레이드하는 것을 표준 관행으로 삼으세요. 이 방법을 통해 지속적인 기술 발전에 발맞추어 환경의 효율성과 보안을 강화할 수 있습니다.
## EKS 출시 일정 검토
[EKS 쿠버네티스 릴리스 캘린더 검토](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-release-calendar)를 통해 새 버전이 출시되는 시기와 특정 버전에 대한 지원이 종료되는 시기를 알아보십시오. 일반적으로 EKS는 매년 세 개의 마이너 버전의 쿠버네티스를 릴리스하며 각 마이너 버전은 약 14개월 동안 지원됩니다.
또한 업스트림 [쿠버네티스 릴리스 정보](https://kubernetes.io/releases/) 도 검토하십시오.
## 공동 책임 모델이 클러스터 업그레이드에 어떻게 적용되는지 이해
클러스터 컨트롤 플레인과 데이터 플레인 모두에 대한 업그레이드를 시작하는 것은 사용자의 책임입니다. [업그레이드 시작 방법에 대해 알아보십시오.](https://docs.aws.amazon.com/eks/latest/userguide/update-cluster.html) 클러스터 업그레이드를 시작하면 AWS가 클러스터 컨트롤 플레인 업그레이드를 관리합니다. Fargate 파드 및 [기타 애드온] 을 포함한 데이터 플레인 업그레이드는 사용자의 책임입니다.(#upgrade -애드온 및 구성 요소 - kubernetes-api 사용) 클러스터 업그레이드 후 가용성과 운영에 영향을 미치지 않도록 클러스터에서 실행되는 워크로드의 업그레이드를 검증하고 계획해야 합니다.
## 클러스터를 인플레이스 업그레이드
EKS는 인플레이스 클러스터 업그레이드 전략을 지원합니다.이렇게 하면 클러스터 리소스가 유지되고 클러스터 구성 (예: API 엔드포인트, OIDC, ENIS, 로드밸런서) 이 일관되게 유지됩니다.이렇게 하면 클러스터 사용자의 업무 중단이 줄어들고, 워크로드를 재배포하거나 외부 리소스 (예: DNS, 스토리지) 를 마이그레이션할 필요 없이 클러스터의 기존 워크로드와 리소스를 사용할 수 있습니다.
전체 클러스터 업그레이드를 수행할 때는 한 번에 하나의 마이너 버전 업그레이드만 실행할 수 있다는 점에 유의해야 합니다 (예: 1.24에서 1.25까지).
즉, 여러 버전을 업데이트해야 하는 경우 일련의 순차적 업그레이드가 필요합니다.순차적 업그레이드를 계획하는 것은 더 복잡하며 다운타임이 발생할 위험이 더 높습니다.이 상황에서는 [블루/그린 클러스터 업그레이드 전략을 평가하십시오.](#인플레이스-클러스터-업그레이드의-대안으로-블루/그린-클러스터-평가)
## 컨트롤 플레인과 데이터 플레인을 순서대로 업그레이드
클러스터를 업그레이드하려면 다음 조치를 취해야 합니다.
1. [쿠버네티스 및 EKS 릴리스 노트를 검토하십시오.](#use-the-eks-documentation-to-create-an-upgrade-checklist)
2. [클러스터를 백업하십시오.(선택 사항)](#backup-the-cluster-before-upgrading)
3. [워크로드에서 더 이상 사용되지 않거나 제거된 API 사용을 식별하고 수정하십시오.](#identify-and-remediate-removed-api-usage-before-upgrading-the-control-plane)
4. [관리형 노드 그룹을 사용하는 경우 컨트롤 플레인과 동일한 Kubernetes 버전에 있는지 확인하십시오.](#track-the-version-skew-of-nodes-ensure-managed-node-groups-are-on-the-same-version-as-the-control-plane-before-upgrading) EKS Fargate 프로파일에서 생성한 EKS 관리형 노드 그룹 및 노드는 컨트롤 플레인과 데이터 플레인 간의 마이너 버전 스큐를 1개만 지원합니다.
5. [AWS 콘솔 또는 CLI를 사용하여 클러스터 컨트롤 플레인을 업그레이드하십시오.](https://docs.aws.amazon.com/eks/latest/userguide/update-cluster.html)
6. [애드온 호환성을 검토하세요.](#upgrade-add-ons-and-components-using-the-kubernetes-api) 필요에 따라 쿠버네티스 애드온과 커스텀 컨트롤러를 업그레이드하십시오.
7. [kubectl 업데이트하기.](https://docs.aws.amazon.com/eks/latest/userguide/install-kubectl.html)
8. [클러스터 데이터 플레인을 업그레이드합니다.](https://docs.aws.amazon.com/eks/latest/userguide/update-managed-node-group.html) 업그레이드된 클러스터와 동일한 쿠버네티스 마이너 버전으로 노드를 업그레이드하십시오.
## EKS 문서를 활용하여 업그레이드 체크리스트 생성
EKS 쿠버네티스 [버전 문서](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html)에는 각 버전에 대한 자세한 변경 목록이 포함되어 있습니다.각 업그레이드에 대한 체크리스트를 작성하십시오.
특정 EKS 버전 업그레이드 지침은 문서에서 각 버전의 주요 변경 사항 및 고려 사항을 검토하십시오.
* [EKS 1.27](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.27)
* [EKS 1.26](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.26)
* [EKS 1.25](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.25)
* [EKS 1.24](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.24)
* [EKS 1.23](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.23)
* [EKS 1.22](https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html#kubernetes-1.22)
## 쿠버네티스 API를 사용하여 애드온 및 컴포넌트 업그레이드
클러스터를 업그레이드하기 전에 사용 중인 Kubernetes 구성 요소의 버전을 이해해야 합니다. 클러스터 구성 요소의 인벤토리를 작성하고 Kubernetes API를 직접 사용하는 구성 요소를 식별하십시오.여기에는 모니터링 및 로깅 에이전트, 클러스터 오토스케일러, 컨테이너 스토리지 드라이버 (예: [EBS CSI](https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html), [EFS CSI](https://docs.aws.amazon.com/eks/latest/userguide/efs-csi.html)), 인그레스 컨트롤러, 쿠버네티스 API를 직접 사용하는 기타 워크로드 또는 애드온과 같은 중요한 클러스터 구성 요소가 포함됩니다.
!!! tip
중요한 클러스터 구성 요소는 대개 `*-system` 네임스페이스에 설치됩니다.
```
kubectl get ns | grep '-system'
```
Kubernetes API를 사용하는 구성 요소를 식별한 후에는 해당 설명서에서 버전 호환성 및 업그레이드 요구 사항을 확인하십시오. 예를 들어 버전 호환성에 대해서는 [AWS 로드밸런서 컨트롤러](https://kubernetes-sigs.github.io/aws-load-balancer-controller/v2.4/deploy/installation/) 설명서를 참조하십시오.클러스터 업그레이드를 진행하기 전에 일부 구성 요소를 업그레이드하거나 구성을 변경해야 할 수 있습니다. 확인해야 할 몇 가지 중요한 구성 요소로는 [CoreDNS](https://github.com/coredns/coredns), [kube-proxy](https://kubernetes.io/docs/concepts/overview/components/#kube-proxy), [VPC CNI](https://github.com/aws/amazon-vpc-cni-k8s), 스토리지 드라이버 등이 있습니다.
클러스터에는 Kubernetes API를 사용하는 많은 워크로드가 포함되는 경우가 많으며 인그레스 컨트롤러, 지속적 전달 시스템, 모니터링 도구와 같은 워크로드 기능에 필요합니다.EKS 클러스터를 업그레이드할 때는 애드온과 타사 도구도 업그레이드하여 호환되는지 확인해야 합니다.
일반적인 애드온의 다음 예와 관련 업그레이드 설명서를 참조하십시오.
* **Amazon VPC CNI:** 각 클러스터 버전에 대한 Amazon VPC CNI 애드온의 권장 버전은 [쿠버네티스 자체 관리형 애드온용 Amazon VPC CNI 플러그인 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/managing-vpc-cni.html)를 참조하십시오. **Amazon EKS 애드온으로 설치한 경우 한 번에 하나의 마이너 버전만 업그레이드할 수 있습니다.**
* **kube-proxy:** [쿠버네티스 kube-proxy 자체 관리형 애드온 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/managing-kube-proxy.html)를 참조하십시오.
* **CoreDNS:** [CoreDNS 자체 관리형 애드온 업데이트](https://docs.aws.amazon.com/eks/latest/userguide/managing-coredns.html)를 참조하십시오.
* **AWS Load Balancer Controller:** AWS Load Balancer Controller는 배포한 EKS 버전과 호환되어야 합니다. 자세한 내용은 [설치 가이드](https://docs.aws.amazon.com/eks/latest/userguide/aws-load-balancer-controller.html)를 참조하십시오.
* **Amazon Elastic Block Store (아마존 EBS) 컨테이너 스토리지 인터페이스 (CSI) 드라이버:** 설치 및 업그레이드 정보는 [Amazon EKS 애드온으로 Amazon EBS CSI 드라이버 관리](https://docs.aws.amazon.com/eks/latest/userguide/managing-ebs-csi.html)를 참조하십시오.
* **Amazon Elastic File System (Amazon EFS) 컨테이너 스토리지 인터페이스 (CSI) 드라이버:** 설치 및 업그레이드 정보는 [Amazon EFS CSI 드라이버](https://docs.aws.amazon.com/eks/latest/userguide/efs-csi.html) 를 참조하십시오.
* **쿠버네티스 메트릭 서버:** 자세한 내용은 GitHub의 [metrics-server](https://kubernetes-sigs.github.io/metrics-server/)를 참조하십시오.
* **쿠버네티스 Cluster Autoscaler:** 쿠버네티스 Cluster Autoscaler 버전을 업그레이드하려면 배포 시 이미지 버전을 변경하십시오. Cluster Autoscaler는 쿠버네티스 스케줄러와 밀접하게 연결되어 있습니다. 클러스터를 업그레이드할 때는 항상 업그레이드해야 합니다. [GitHub 릴리스](https://github.com/kubernetes/autoscaler/releases)를 검토하여 쿠버네티스 마이너 버전에 해당하는 최신 릴리스의 주소를 찾으십시오.
* **Karpenter:** 설치 및 업그레이드 정보는 [Karpenter 설명서](https://karpenter.sh/v0.27.3/faq/#which-versions-of-kubernetes-does-karpenter-support)를 참조하십시오.
## 업그레이드 전에 기본 EKS 요구 사항 확인
AWS에서 업그레이드 프로세스를 완료하려면 계정에 특정 리소스가 필요합니다.이런 리소스가 없는 경우 클러스터를 업그레이드할 수 없습니다.컨트롤 플레인 업그레이드에는 다음 리소스가 필요합니다.
1. 사용 가능한 IP 주소: 클러스터를 업데이트하려면 Amazon EKS에서 클러스터를 생성할 때 지정한 서브넷의 사용 가능한 IP 주소가 최대 5개까지 필요합니다.
2. EKS IAM 역할: 컨트롤 플레인 IAM 역할은 필요한 권한으로 계정에 계속 존재합니다.
3. 클러스터에 시크릿 암호화가 활성화되어 있는 경우 클러스터 IAM 역할에 AWS KMS키를 사용할 권한이 있는지 확인하십시오.
### 사용 가능한 IP 주소 확인
클러스터를 업데이트하려면 Amazon EKS에서 클러스터를 생성할 때 지정한 서브넷의 사용 가능한 IP 주소가 최대 5개까지 필요합니다.
다음 명령을 실행하여 서브넷에 클러스터를 업그레이드할 수 있는 충분한 IP 주소가 있는지 확인할 수 있습니다.
```
CLUSTER=<cluster name>
aws ec2 describe-subnets --subnet-ids \
$(aws eks describe-cluster --name ${CLUSTER} \
--query 'cluster.resourcesVpcConfig.subnetIds' \
--output text) \
--query 'Subnets[*].[SubnetId,AvailabilityZone,AvailableIpAddressCount]' \
--output table
----------------------------------------------------
| DescribeSubnets |
+---------------------------+--------------+-------+
| subnet-067fa8ee8476abbd6 | us-east-1a | 8184 |
| subnet-0056f7403b17d2b43 | us-east-1b | 8153 |
| subnet-09586f8fb3addbc8c | us-east-1a | 8120 |
| subnet-047f3d276a22c6bce | us-east-1b | 8184 |
+---------------------------+--------------+-------+
```
[VPC CNI Metrics Helper](https://github.com/aws/amazon-vpc-cni-k8s/blob/master/cmd/cni-metrics-helper/README.md) 를 사용하여 VPC 지표에 대한 CloudWatch 대시보드를 만들 수 있습니다.
클러스터 생성 시 처음 지정한 서브넷의 IP 주소가 부족한 경우, Amazon EKS는 쿠버네티스 버전 업그레이드를 시작하기 전에 “UpdateClusterConfiguration” API를 사용하여 클러스터 서브넷을 업데이트할 것을 권장합니다. 신규 서브넷이 아래 항목을 만족하는지 확인하십시오:
* 신규 서브넷은 클러스터 생성 중에 선택한 동일 가용영역에 속합니다.
* 신규 서브넷은 클러스터 생성 시 제공된 동일 VPC에 속합니다.
기존 VPC CIDR 블록의 IP 주소가 부족한 경우 추가 CIDR 블록을 연결하는 것을 고려해 보십시오. AWS를 사용하면 추가 CIDR 블록을 기존 클러스터 VPC와 연결하여 IP 주소 풀을 효과적으로 확장할 수 있습니다. 이러한 확장은 추가 프라이빗 IP 범위 (RFC 1918) 를 도입하거나, 필요한 경우 퍼블릭 IP 범위 (비 RFC 1918) 를 도입하여 수행할 수 있습니다. Amazon EKS에서 새 CIDR을 사용하려면 먼저 새 VPC CIDR 블록을 추가하고 VPC 새로 고침이 완료될 때까지 기다려야 합니다. 그런 다음 새로 설정된 CIDR 블록을 기반으로 서브넷을 VPC로 업데이트할 수 있습니다.
### EKS IAM 역할 확인
다음 명령을 실행하여 IAM 역할을 사용할 수 있고 계정에 올바른 역할 수임 정책이 적용되었는지 확인할 수 있습니다.
```
CLUSTER=<cluster name>
ROLE_ARN=$(aws eks describe-cluster --name ${CLUSTER} \
--query 'cluster.roleArn' --output text)
aws iam get-role --role-name ${ROLE_ARN##*/} \
--query 'Role.AssumeRolePolicyDocument'
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"Service": "eks.amazonaws.com"
},
"Action": "sts:AssumeRole"
}
]
}
```
## EKS 애드온으로 마이그레이션
Amazon EKS는 모든 클러스터에 쿠버네티스 용 Amazon VPC CNI 플러그인, `kube-proxy`, CoreDNS와 같은 애드온을 자동으로 설치합니다. 애드온은 자체 관리하거나 Amazon EKS 애드온으로 설치할 수 있습니다. Amazon EKS 애드온은 EKS API를 사용하여 애드온을 관리하는 또 다른 방법입니다.
Amazon EKS 애드온을 사용하여 단일 명령으로 버전을 업데이트할 수 있습니다. 예:
```
aws eks update-addon —cluster-name my-cluster —addon-name vpc-cni —addon-version version-number \
--service-account-role-arn arn:aws:iam::111122223333:role/role-name —configuration-values '{}' —resolve-conflicts PRESERVE
```
다음과 같은 EKS 애드온이 있는지 확인:
```
aws eks list-addons --cluster-name <cluster name>
```
!!! warning
EKS 애드온은 컨트롤 플레인 업그레이드 중에 자동으로 업그레이드되지 않습니다. EKS 애드온 업데이트를 시작하고 원하는 버전을 선택해야 합니다.
* 사용 가능한 모든 버전 중에서 호환되는 버전을 선택하는 것은 사용자의 책임입니다. [애드온 버전 호환성에 대한 지침을 검토하세요.](#upgrade-add-ons-and-components-using-the-kubernetes-api)
* Amazon EKS 애드온은 한 번에 하나의 마이너 버전만 업그레이드할 수 있습니다.
[EKS 애드온으로 사용할 수 있는 구성 요소와 시작 방법에 대해 자세히 알아보세요.](https://docs.aws.amazon.com/eks/latest/userguide/eks-add-ons.html)
[EKS 애드온에 사용자 지정 구성을 제공하는 방법을 알아봅니다.](https://aws.amazon.com/blogs/containers/amazon-eks-add-ons-advanced-configuration/)
## 컨트롤 플레인을 업그레이드하기 전에 제거된 API 사용을 식별하고 수정하기
EKS 컨트롤 플레인을 업그레이드하기 전에 제거된 API의 API 사용을 확인해야 합니다. 이를 위해서는 실행 중인 클러스터 또는 정적으로 렌더링된 Kubernetes 매니페스트 파일을 확인할 수 있는 도구를 사용하는 것이 좋습니다.
일반적으로 정적 매니페스트 파일을 대상으로 검사를 실행하는 것이 더 정확합니다. 라이브 클러스터를 대상으로 실행하면 이런 도구가 오탐을 반환할 수 있습니다.
쿠버네티스 API가 더 이상 사용되지 않는다고 해서 API가 제거된 것은 아닙니다. [쿠버네티스 지원 중단 정책](https://kubernetes.io/docs/reference/using-api/deprecation-policy/)을 확인하여 API 제거가 워크로드에 미치는 영향을 이해해야 합니다.
### 클러스터 인사이트
[클러스터 인사이트](https://docs.aws.amazon.com/eks/latest/userguide/cluster-insights.html)는 EKS 클러스터를 최신 버전의 쿠버네티스로 업그레이드하는 기능에 영향을 미칠 수 있는 문제에 대한 결과를 제공하는 기능입니다. 이러한 결과는 Amazon EKS에서 선별 및 관리하며 문제 해결 방법에 대한 권장 사항을 제공합니다. 클러스터 인사이트를 활용하면 최신 쿠버네티스 버전으로 업그레이드하는 데 드는 노력을 최소화할 수 있습니다.
EKS 클러스터의 인사이트를 보려면 다음 명령을 실행할 수 있습니다.
```
aws eks list-insights --region <region-code> --cluster-name <my-cluster>
{
"insights": [
{
"category": "UPGRADE_READINESS",
"name": "Deprecated APIs removed in Kubernetes v1.29",
"insightStatus": {
"status": "PASSING",
"reason": "No deprecated API usage detected within the last 30 days."
},
"kubernetesVersion": "1.29",
"lastTransitionTime": 1698774710.0,
"lastRefreshTime": 1700157422.0,
"id": "123e4567-e89b-42d3-a456-579642341238",
"description": "Checks for usage of deprecated APIs that are scheduled for removal in Kubernetes v1.29. Upgrading your cluster before migrating to the updated APIs supported by v1.29 could cause application impact."
}
]
}
```
인사이트에 대해 더 자세한 내용을 출력하려면 다음 명령을 실행할 수 있습니다:
```
aws eks describe-insight --region <region-code> --id <insight-id> --cluster-name <my-cluster>
```
[Amazon EKS 콘솔](https://console.aws.amazon.com/eks/home#/clusters)에서 인사이트를 볼 수도 있습니다.클러스터 목록에서 클러스터를 선택하면 인사이트 결과가 ```업그레이드 인사이트``` 탭 아래에 표시됩니다.
`"status": ERROR`인 클러스터 인사이트를 찾은 경우 클러스터 업그레이드를 수행하기 전에 문제를 해결해야 합니다. `aws eks describe-insight` 명령을 실행하면 다음과 같은 개선 권고 사항을 공유할 수 있습니다:
영향을 받는 리소스:
```
"resources": [
{
"insightStatus": {
"status": "ERROR"
},
"kubernetesResourceUri": "/apis/policy/v1beta1/podsecuritypolicies/null"
}
]
```
APIs deprecated:
```
"deprecationDetails": [
{
"usage": "/apis/flowcontrol.apiserver.k8s.io/v1beta2/flowschemas",
"replacedWith": "/apis/flowcontrol.apiserver.k8s.io/v1beta3/flowschemas",
"stopServingVersion": "1.29",
"clientStats": [],
"startServingReplacementVersion": "1.26"
}
]
```
취해야 할 권장 조치:
```
"recommendation": "Update manifests and API clients to use newer Kubernetes APIs if applicable before upgrading to Kubernetes v1.26."
```
EKS 콘솔 또는 CLI를 통해 클러스터 통찰력을 활용하면 EKS 클러스터 버전을 성공적으로 업그레이드하는 프로세스를 가속화할 수 있습니다. 다음 리소스를 통해 자세히 알아보십시오:
* [공식 EKS 문서](https://docs.aws.amazon.com/eks/latest/userguide/cluster-insights.html)
* [클러스터 인사이트 출시 블로그](https://aws.amazon.com/blogs/containers/accelerate-the-testing-and-verification-of-amazon-eks-upgrades-with-upgrade-insights/).
### Kube-no-Trouble
[Kube-no-Trouble](https://github.com/doitintl/kube-no-trouble) 은 `kubent` 명령을 사용하는 오픈소스 커맨드라인 유틸리티입니다. 인수 없이 `kubent`를 실행하면 현재 KubeConfig 컨텍스트를 사용하여 클러스터를 스캔하고 더 이상 사용되지 않고 제거될 API가 포함된 보고서를 생성합니다
```
kubent
4:17PM INF >>> Kube No Trouble `kubent` <<<
4:17PM INF version 0.7.0 (git sha d1bb4e5fd6550b533b2013671aa8419d923ee042)
4:17PM INF Initializing collectors and retrieving data
4:17PM INF Target K8s version is 1.24.8-eks-ffeb93d
4:l INF Retrieved 93 resources from collector name=Cluster
4:17PM INF Retrieved 16 resources from collector name="Helm v3"
4:17PM INF Loaded ruleset name=custom.rego.tmpl
4:17PM INF Loaded ruleset name=deprecated-1-16.rego
4:17PM INF Loaded ruleset name=deprecated-1-22.rego
4:17PM INF Loaded ruleset name=deprecated-1-25.rego
4:17PM INF Loaded ruleset name=deprecated-1-26.rego
4:17PM INF Loaded ruleset name=deprecated-future.rego
__________________________________________________________________________________________
>>> Deprecated APIs removed in 1.25 <<<
------------------------------------------------------------------------------------------
KIND NAMESPACE NAME API_VERSION REPLACE_WITH (SINCE)
PodSecurityPolicy <undefined> eks.privileged policy/v1beta1 <removed> (1.21.0)
```
정적 매니페스트 파일 및 헬름 패키지를 스캔하는 데에도 사용할 수 있습니다.매니페스트를 배포하기 전에 문제를 식별하려면 지속적 통합 (CI) 프로세스의 일부로 `kubent` 를 실행하는 것이 좋습니다.또한 매니페스트를 스캔하는 것이 라이브 클러스터를 스캔하는 것보다 더 정확합니다.
Kube-no-Trouble은 클러스터를 스캔하기 위한 적절한 권한이 있는 샘플 [서비스 어카운트 및 역할](https://github.com/doitintl/kube-no-trouble/blob/master/docs/k8s-sa-and-role-example.yaml)을 제공합니다.
### 풀루토(pluto)
또 다른 옵션은 [pluto](https://pluto.docs.fairwinds.com/)인데, 이는 라이브 클러스터, 매니페스트 파일, 헬름 차트 스캔을 지원하고 CI 프로세스에 포함할 수 있는 GitHub Action이 있다는 점에서 `kubent`와 비슷합니다.
```
pluto detect-all-in-cluster
NAME KIND VERSION REPLACEMENT REMOVED DEPRECATED REPL AVAIL
eks.privileged PodSecurityPolicy policy/v1beta1 false true true
```
### 리소스
업그레이드 전에 클러스터가 지원 중단된 API를 사용하지 않는지 확인하려면 다음을 모니터링해야 합니다:
* 쿠버네티스 v1.19 `apiserver_requested_deprecated_apis` 메트릭:
```
kubectl get --raw /metrics | grep apiserver_requested_deprecated_apis
apiserver_requested_deprecated_apis{group="policy",removed_release="1.25",resource="podsecuritypolicies",subresource="",version="v1beta1"} 1
```
* `k8s.io/deprecated`가 `true`로 표시된 [감사 로그](https://docs.aws.amazon.com/eks/latest/userguide/control-plane-logs.html) 내 이벤트:
```
CLUSTER="<cluster_name>"
QUERY_ID=$(aws logs start-query \
--log-group-name /aws/eks/${CLUSTER}/cluster \
--start-time $(date -u --date="-30 minutes" "+%s") # or date -v-30M "+%s" on MacOS \
--end-time $(date "+%s") \
--query-string 'fields @message | filter `annotations.k8s.io/deprecated`="true"' \
--query queryId --output text)
echo "Query started (query id: $QUERY_ID), please hold ..." && sleep 5 # give it some time to query
aws logs get-query-results --query-id $QUERY_ID
```
더 이상 사용되지 않는 API를 사용하는 경우 다음 행이 출력됩니다:
```
{
"results": [
[
{
"field": "@message",
"value": "{\"kind\":\"Event\",\"apiVersion\":\"audit.k8s.io/v1\",\"level\":\"Request\",\"auditID\":\"8f7883c6-b3d5-42d7-967a-1121c6f22f01\",\"stage\":\"ResponseComplete\",\"requestURI\":\"/apis/policy/v1beta1/podsecuritypolicies?allowWatchBookmarks=true\\u0026resourceVersion=4131\\u0026timeout=9m19s\\u0026timeoutSeconds=559\\u0026watch=true\",\"verb\":\"watch\",\"user\":{\"username\":\"system:apiserver\",\"uid\":\"8aabfade-da52-47da-83b4-46b16cab30fa\",\"groups\":[\"system:masters\"]},\"sourceIPs\":[\"::1\"],\"userAgent\":\"kube-apiserver/v1.24.16 (linux/amd64) kubernetes/af930c1\",\"objectRef\":{\"resource\":\"podsecuritypolicies\",\"apiGroup\":\"policy\",\"apiVersion\":\"v1beta1\"},\"responseStatus\":{\"metadata\":{},\"code\":200},\"requestReceivedTimestamp\":\"2023-10-04T12:36:11.849075Z\",\"stageTimestamp\":\"2023-10-04T12:45:30.850483Z\",\"annotations\":{\"authorization.k8s.io/decision\":\"allow\",\"authorization.k8s.io/reason\":\"\",\"k8s.io/deprecated\":\"true\",\"k8s.io/removed-release\":\"1.25\"}}"
},
[...]
```
## 쿠버네티스 워크로드 업데이트. kubectl-convert를 사용하여 매니페스트를 업데이트
업데이트가 필요한 워크로드와 매니페스트를 식별한 후에는 매니페스트 파일의 리소스 유형을 변경해야 할 수 있습니다 (예: 파드시큐리티폴리시를 파드시큐리티스탠다드로).이를 위해서는 리소스 사양을 업데이트하고 교체할 리소스에 따른 추가 조사가 필요합니다.
리소스 유형은 동일하게 유지되지만 API 버전을 업데이트해야 하는 경우, `kubectl-convert` 명령을 사용하여 매니페스트 파일을 자동으로 변환할 수 있습니다. 예전 디플로이먼트를 `apps/v1`으로 변환하는 경우를 예로 들 수 있다. 자세한 내용은 쿠버네티스 웹 사이트의 [kubectl convert 플러그인 설치](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/#install-kubectl-convert-plugin) 를 참조하십시오.
`kubectl-convert -f <file> --output-version <group>/<version>`
## 데이터 플레인이 업그레이드되는 동안 워크로드의 가용성을 보장하도록 PodDisruptionBudget 및 topologySpreadConstraints 조건을 구성.
데이터 플레인이 업그레이드되는 동안 워크로드의 가용성을 보장하려면 워크로드에 적절한 [PodDisruptionBudget(파드디스럽션 예산)](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/#pod-disruption-budgets) 및 [토폴로지 스프레드 제약 조건](https://kubernetes.io/docs/concepts/scheduling-eviction/topology-spread-constraints) 이 있는지 확인하십시오.모든 워크로드에 동일한 수준의 가용성이 필요한 것은 아니므로 워크로드의 규모와 요구 사항을 검증해야 합니다.
워크로드가 여러 가용영역에 분산되어 있고 토폴로지가 분산된 여러 호스트에 분산되어 있는지 확인하면 워크로드가 문제 없이 새 데이터 플레인으로 자동 마이그레이션될 것이라는 신뢰도가 높아집니다.
다음은 항상 80% 의 복제본을 사용할 수 있고 여러 영역과 호스트에 걸쳐 복제본을 분산시키는 워크로드의 예입니다.
```
apiVersion: policy/v1
kind: PodDisruptionBudget
metadata:
name: myapp
spec:
minAvailable: "80%"
selector:
matchLabels:
app: myapp
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp
spec:
replicas: 10
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- image: public.ecr.aws/eks-distro/kubernetes/pause:3.2
name: myapp
resources:
requests:
cpu: "1"
memory: 256M
topologySpreadConstraints:
- labelSelector:
matchLabels:
app: host-zone-spread
maxSkew: 2
topologyKey: kubernetes.io/hostname
whenUnsatisfiable: DoNotSchedule
- labelSelector:
matchLabels:
app: host-zone-spread
maxSkew: 2
topologyKey: topology.kubernetes.io/zone
whenUnsatisfiable: DoNotSchedule
```
[AWS Resilience Hub](https://aws.amazon.com/resilience-hub/) 는 아마존 엘라스틱 쿠버네티스 서비스 (Amazon EKS) 를 지원 리소스로 추가했습니다. Resilience Hub는 애플리케이션 복원력을 정의, 검증 및 추적할 수 있는 단일 장소를 제공하므로 소프트웨어, 인프라 또는 운영 중단으로 인한 불필요한 다운타임을 피할 수 있습니다.
## 관리형 노드 그룹 또는 Karpenter를 사용하여 데이터 플레인 업그레이드를 간소화.
관리형 노드 그룹과 Karpenter는 모두 노드 업그레이드를 단순화하지만 접근 방식은 다릅니다.
관리형 노드 그룹은 노드의 프로비저닝 및 라이프사이클 관리를 자동화합니다.즉, 한 번의 작업으로 노드를 생성, 자동 업데이트 또는 종료할 수 있습니다.
기본 구성에서 Karpenter는 호환되는 최신 EKS 최적화 AMI를 사용하여 새 노드를 자동으로 생성합니다. EKS가 업데이트된 EKS 최적화 AMI를 출시하거나 클러스터가 업그레이드되면 Karpenter는 자동으로 이런 이미지를 사용하기 시작합니다.[Karpenter는 노드 업데이트를 위한 노드 만료도 구현합니다.](#enable-node-expiry-for-karpenter-managed-nodes)
[Karpenter는 사용자 지정 AMI를 사용하도록 구성할 수 있습니다.](https://karpenter.sh/docs/concepts/node-templates/) Karpenter에서 사용자 지정 AMI를 사용하는 경우 kubelet 버전에 대한 책임은 사용자에게 있습니다.
## 기존 노드 및 컨트롤 플레인과의 버전 호환성 확인
Amazon EKS에서 쿠버네티스 업그레이드를 진행하기 전에 관리형 노드 그룹, 자체 관리형 노드 및 컨트롤 플레인 간의 호환성을 보장하는 것이 중요합니다. 호환성은 사용 중인 쿠버네티스 버전에 따라 결정되며 다양한 시나리오에 따라 달라집니다. 전략:
* **쿠버네티스 v1.28+** — **** 쿠버네티스 버전 1.28 이상부터는 핵심 구성 요소에 대한 보다 관대한 버전 정책이 있습니다. 특히, 쿠버네티스 API 서버와 kubelet 간에 지원되는 스큐(skew)가 하나의 마이너 버전 (n-2에서 n-3으로) 으로 확장되었습니다. 예를 들어, 사용 중인 EKS 컨트롤 플레인 버전이 1.28인 경우, 1.25까지의 kubelet 버전을 안전하게 사용할 수 있다. 이 버전 스큐는 [AWS Fargate](https://docs.aws.amazon.com/eks/latest/userguide/fargate.html), [관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html) 및 [자체 관리형 노드](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 에서 지원됩니다. 보안상의 이유로 [Amazon 머신 이미지 (AMI)](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-amis.html) 버전을 최신 상태로 유지하는 것이 좋습니다. 이전 kubelet 버전은 잠재적인 공통 취약성 및 노출 (CVE) 으로 인해 보안 위험을 초래할 수 있으며, 이는 이전 kubelet 버전 사용의 이점보다 클 수 있습니다.
* **쿠버네티스 < v1.28** — v1.28 이전 버전을 사용하는 경우, API 서버와 kubelet 간에 지원되는 스큐는 n-2이다. 예를 들어, 사용 중인 EKS 버전이 1.27인 경우, 사용할 수 있는 가장 오래된 kubelet 버전은 1.25이다. 이 버전 차이는 [AWS Fargate](https://docs.aws.amazon.com/eks/latest/userguide/fargate.html), [관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html) 및 [자체 관리형 노드](https://docs.aws.amazon.com/eks/latest/userguide/worker.html)에 적용됩니다.
## Karpenter 관리형 노드의 노드 만료 활성화
Karpenter가 노드 업그레이드를 구현하는 한 가지 방법은 노드 만료라는 개념을 사용하는 것입니다. 이렇게 하면 노드 업그레이드에 필요한 계획이 줄어듭니다. 프로비저너에서 **ttlSecondsUntilExpired** 의 값을 설정하면 노드 만료가 활성화됩니다. 노드가 몇 초 만에 정의된 연령에 도달하면 노드가 안전하게 비워지고 삭제됩니다. 이는 사용 중인 경우에도 마찬가지이므로 노드를 새로 프로비저닝된 업그레이드된 인스턴스로 교체할 수 있습니다. 노드가 교체되면 Karpenter는 EKS에 최적화된 최신 AMI를 사용합니다. 자세한 내용은 Karpenter 웹 사이트의 [디프로비저닝(Deprovisioning)](https://karpenter.sh/docs/concepts/deprovisioning/#methods)를 참조하십시오.
Karpenter는 이 값에 지터를 자동으로 추가하지 않습니다. 과도한 워크로드 중단을 방지하려면 Kubernetes 설명서에 나와 있는 대로 [Pod Disruption Budget (PDB)](https://kubernetes.io/docs/tasks/run-application/configure-pdb/) 을 정의하십시오.
프로비저너에서 **ttlSecondsUntilExpired** 값을 설정하는 경우 이는 프로비저너와 연결된 기존 노드에 적용됩니다.
## Karpenter 관리 노드에 드리프트 기능 사용
[Karpenter's Drift 기능](https://karpenter.sh/docs/concepts/deprovisioning/#drift)은 Karpenter가 프로비저닝한 노드를 자동으로 업그레이드하여 EKS 컨트롤 플레인과 동기화 상태를 유지할 수 있습니다. Karpenter 드리프트는 현재 [기능 게이트](https://karpenter.sh/docs/concepts/settings/#feature-gates)를 사용하여 활성화해야 합니다. Karpenter의 기본 구성은 EKS 클러스터의 컨트롤 플레인과 동일한 메이저 및 마이너 버전에 대해 EKS에 최적화된 최신 AMI를 사용합니다.
EKS 클러스터 업그레이드가 완료되면 Karpenter의 Drift 기능은 Karpenter가 프로비저닝한 노드가 이전 클러스터 버전용 EKS 최적화 AMI를 사용하고 있음을 감지하고 해당 노드를 자동으로 연결, 드레인 및 교체합니다. 새 노드로 이동하는 파드를 지원하려면 적절한 파드 [리소스 할당량](https://kubernetes.io/docs/concepts/policy/resource-quotas/)을 설정하고 [Pod Disruption Budgets](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/)(PDB) 을 사용하여 쿠버네티스 모범 사례를 따르세요. Karpenter의 디프로비저닝은 파드 리소스 요청을 기반으로 대체 노드를 미리 가동하고 노드 디프로비저닝을 할 때 PDB를 존중합니다.
## eksctl을 사용하여 자체 관리형 노드 그룹의 업그레이드를 자동화
자체 관리형 노드 그룹은 사용자 계정에 배포되고 EKS 서비스 외부의 클러스터에 연결된 EC2 인스턴스입니다. 이들은 일반적으로 일종의 자동화 도구를 통해 배포되고 관리됩니다. 자체 관리형 노드 그룹을 업그레이드하려면 도구 설명서를 참조해야 합니다.
예를 들어 eksctl은 [자체 관리형 노드 삭제 및 드레인](https://eksctl.io/usage/managing-nodegroups/#deleting-and-draining)을 지원합니다.
몇 가지 일반적인 도구는 다음과 같습니다.
* [eksctl](https://eksctl.io/usage/nodegroup-upgrade/)
* [kOps](https://kops.sigs.k8s.io/operations/updates_and_upgrades/)
* [EKS Blueprints](https://aws-ia.github.io/terraform-aws-eks-blueprints/node-groups/#self-managed-node-groups)
## 업그레이드 전 클러스터 백업
새 버전의 쿠버네티스는 Amazon EKS 클러스터를 크게 변경합니다. 클러스터를 업그레이드한 후에는 다운그레이드할 수 없습니다.
[Velero](https://velero.io/) 는 커뮤니티에서 지원하는 오픈 소스 도구로, 기존 클러스터를 백업하고 새 클러스터에 백업을 적용하는 데 사용할 수 있습니다.
현재 EKS에서 지원하는 쿠버네티스 버전에서만 새 클러스터를 생성할 수 있다는 점에 유의하십시오. 클러스터가 현재 실행 중인 버전이 계속 지원되고 업그레이드가 실패할 경우 원래 버전으로 새 클러스터를 생성하고 데이터 플레인을 복원할 수 있습니다. 참고로 IAM을 포함한 AWS 리소스는 Velero의 백업에 포함되지 않습니다. 이런 리소스는 다시 생성해야 합니다.
## 컨트롤 플레인을 업그레이드한 후 Fargate 배포를 다시 시작.
Fargate 데이터 플레인 노드를 업그레이드하려면 워크로드를 재배포해야 합니다. 모든 파드를 `-o wide` 옵션으로 나열하여 파게이트 노드에서 실행 중인 워크로드를 식별할 수 있습니다.'fargate-'로 시작하는 모든 노드 이름은 클러스터에 재배포해야 합니다.
## 인플레이스 클러스터 업그레이드의 대안으로 블루/그린 클러스터 평가
일부 고객은 블루/그린 업그레이드 전략을 선호합니다. 여기에는 이점이 있을 수 있지만 고려해야 할 단점도 있습니다.
혜택은 다음과 같습니다:
* 여러 EKS 버전을 한 번에 변경할 수 있습니다 (예: 1.23에서 1.25).
* 이전 클러스터로 다시 전환 가능
* 최신 시스템 (예: terraform) 으로 관리할 수 있는 새 클러스터를 생성합니다.
* 워크로드를 개별적으로 마이그레이션할 수 있습니다.
몇 가지 단점은 다음과 같습니다.
* 소비자 업데이트가 필요한 API 엔드포인트 및 OIDC 변경 (예: kubectl 및 CI/CD)
* 마이그레이션 중에 2개의 클러스터를 병렬로 실행해야 하므로 비용이 많이 들고 지역 용량이 제한될 수 있습니다.
* 워크로드가 서로 종속되어 함께 마이그레이션되는 경우 더 많은 조정이 필요합니다.
* 로드밸런서와 외부 DNS는 여러 클러스터에 쉽게 분산될 수 없습니다.
이 전략은 가능하지만 인플레이스 업그레이드보다 비용이 많이 들고 조정 및 워크로드 마이그레이션에 더 많은 시간이 필요합니다.상황에 따라 필요할 수 있으므로 신중하게 계획해야 합니다.
높은 수준의 자동화와 GitOps와 같은 선언형 시스템을 사용하면 이 작업을 더 쉽게 수행할 수 있습니다.데이터를 백업하고 새 클러스터로 마이그레이션하려면 상태 저장 워크로드에 대한 추가 예방 조치를 취해야 합니다.
자세한 내용은 다음 블로그 게시물을 검토하세요.
* [쿠버네티스 클러스터 업그레이드: 블루-그린 배포 전략](https://aws.amazon.com/blogs/containers/kubernetes-cluster-upgrade-the-blue-green-deployment-strategy/)
* [스테이트리스 ArgoCD 워크로드를 위한 블루/그린 또는 카나리 Amazon EKS 클러스터 마이그레이션](https://aws.amazon.com/blogs/containers/blue-green-or-canary-amazon-eks-clusters-migration-for-stateless-argocd-workloads/)
## 쿠버네티스 프로젝트에서 계획된 주요 변경 사항 추적 — 미리 생각해 보세요
쿠버네티스 다음 버전만 고려하지 마세요. 쿠버네티스의 새 버전이 출시되면 이를 검토하고 주요 변경 사항을 확인하십시오. 예를 들어, 일부 애플리케이션은 도커 API를 직접 사용했고, 도커용 컨테이너 런타임 인터페이스 (CRI) (Dockershim이라고도 함) 에 대한 지원은 쿠버네티스 `1.24`에서 제거되었습니다. 이런 종류의 변화에는 대비하는 데 더 많은 시간이 필요합니다.
업그레이드하려는 버전에 대해 문서화된 모든 변경 사항을 검토하고 필요한 업그레이드 단계를 기록해 두십시오.또한 Amazon EKS 관리형 클러스터와 관련된 모든 요구 사항 또는 절차를 기록해 두십시오.
* [쿠버네티스 변경 로그](https://github.com/kubernetes/kubernetes/tree/master/CHANGELOG)
## 기능 제거에 대한 구체적인 지침
### 1.25에서 Dockershim 제거 - Docker Socket(DDS) 용 검출기 사용
1.25용 EKS 최적화 AMI에는 더 이상 Dockershim에 대한 지원이 포함되지 않습니다. Dockershim에 대한 종속성이 있는 경우 (예: Docker 소켓을 마운트하는 경우) 워커 노드를 1.25로 업그레이드하기 전에 이런 종속성을 제거해야 합니다.
1.25로 업그레이드하기 전에 도커 소켓에 종속 관계가 있는 인스턴스를 찾아보세요. kubectl 플러그인인 [Detector for Docker Socket (DDS)](https://github.com/aws-containers/kubectl-detector-for-docker-socket) 를 사용하는 것이 좋습니다.
### 1.25에서 파드 시큐리티 폴리시(PSP) 제거 - 파드 시큐리티 스탠다드(PSS) 또는 코드형 정책(PaC) 솔루션으로 마이그레이션
`PodSecurityPolicy` 는 [쿠버네티스 1.21에서 지원 중단이 발표](https://kubernetes.io/blog/2021/04/06/podsecuritypolicy-deprecation-past-present-and-future/)이 되었고, 쿠버네티스 1.25에서는 제거되었습니다. 클러스터에서 PSP를 사용하는 경우, 워크로드 중단을 방지하기 위해 클러스터를 버전 1.25로 업그레이드하기 전에 내장된 쿠버네티스 파드 시큐리티 스탠다드 (PSS) 또는 코드형 정책(PaC) 솔루션으로 마이그레이션해야 합니다.
AWS는 [EKS 설명서에 자세한 FAQ](https://docs.aws.amazon.com/eks/latest/userguide/pod-security-policy-removal-faq.html)를 게시했습니다.
[파드 시큐리티 스탠다드(PSS) 및 파드 시큐리티 어드미션(PSA)](https://aws.github.io/aws-eks-best-practices/security/docs/pods/#pod-security-standards-pss-and-pod-security-admission-psa) 모범 사례를 검토하십시오.
쿠버네티스 웹사이트에서 [파드 시큐리티 폴리시(PSP) 지원 중단 블로그 게시물](https://kubernetes.io/blog/2021/04/06/podsecuritypolicy-deprecation-past-present-and-future/)을 검토하십시오.
### 1.23에서 In-tree 스토리지 드라이버 지원 중단 - 컨테이너 스토리지 인터페이스 (CSI) 드라이버로 마이그레이션
컨테이너 스토리지 인터페이스(CSI)는 쿠버네티스가 기존의 In-tree 스토리지 드라이버 메커니즘을 대체할 수 있도록 설계되었습니다. Amazon EBS 컨테이너 스토리지 인터페이스 (CSI) 마이그레이션 기능은 Amazon EKS `1.23` 이상 클러스터에서 기본적으로 활성화됩니다. 파드가 버전 `1.22` 또는 이전 클러스터에서 실행되는 경우, 서비스 중단을 방지하려면 클러스터를 버전 `1.23`으로 업데이트하기 전에 [Amazon EBS CSI 드라이버](https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi.html)를 설치해야 합니다.
[Amazon EBS CSI 마이그레이션 자주 묻는 질문](https://docs.aws.amazon.com/eks/latest/userguide/ebs-csi-migration-faq.html)을 검토하십시오.
## 추가 리소스
### ClowdHaus EKS 업그레이드 지침
[ClowdHaus EKS 업그레이드 지침](https://clowdhaus.github.io/eksup/) 은 Amazon EKS 클러스터를 업그레이드하는 데 도움이 되는 CLI입니다.클러스터를 분석하여 업그레이드 전에 해결해야 할 잠재적 문제를 찾아낼 수 있습니다.
### GoNoGo
[GoNoGo](https://github.com/FairwindsOps/GoNoGo) 는 클러스터 애드온의 업그레이드 신뢰도를 결정하는 알파 단계 도구입니다.
| eks | search exclude true Amazon EKS Karpenter Fargate EKS Anywhere AWS Outposts AWS Local Zone 1 24 https kubernetes io releases version skew policy supported versions AWS API EKS AWS AWS API Kubelet kubectl get nodes Amazon EKS https kubernetes io docs reference using api deprecation policy Kubernetes API Amazon EKS Kubernetes https docs aws amazon com eks latest userguide kubernetes versions html Kubernetes https github com kubernetes kubernetes tree master CHANGELOG Amazon EKS Kubernetes https docs aws amazon com eks latest userguide managing add ons html updating an add on https docs aws amazon com eks latest userguide control plane logs html eksctl eksctl https eksctl io EKS https eksctl io usage cluster upgrade EKS Fargate EKS https docs aws amazon com eks latest userguide managed node groups html EKS Fargate https docs aws amazon com eks latest userguide fargate html kubectl Convert kubectl convert https kubernetes io docs tasks tools install kubectl linux install kubectl convert plugin API https kubernetes io docs tasks tools included kubectl convert overview Amazon EKS EKS Amazon EKS 60 EKS FAQ https aws amazon com eks eks version faq EKS 1 EKS https aws amazon com eks eks version support policy 1 EKS EKS https docs aws amazon com eks latest userguide kubernetes versions html kubernetes release calendar EKS 14 https kubernetes io releases https docs aws amazon com eks latest userguide update cluster html AWS Fargate upgrade kubernetes api EKS API OIDC ENIS DNS 1 24 1 25 1 EKS use the eks documentation to create an upgrade checklist 2 backup the cluster before upgrading 3 API identify and remediate removed api usage before upgrading the control plane 4 Kubernetes track the version skew of nodes ensure managed node groups are on the same version as the control plane before upgrading EKS Fargate EKS 1 5 AWS CLI https docs aws amazon com eks latest userguide update cluster html 6 upgrade add ons and components using the kubernetes api 7 kubectl https docs aws amazon com eks latest userguide install kubectl html 8 https docs aws amazon com eks latest userguide update managed node group html EKS EKS https docs aws amazon com eks latest userguide kubernetes versions html EKS EKS 1 27 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 27 EKS 1 26 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 26 EKS 1 25 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 25 EKS 1 24 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 24 EKS 1 23 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 23 EKS 1 22 https docs aws amazon com eks latest userguide kubernetes versions html kubernetes 1 22 API Kubernetes Kubernetes API EBS CSI https docs aws amazon com eks latest userguide ebs csi html EFS CSI https docs aws amazon com eks latest userguide efs csi html API tip system kubectl get ns grep system Kubernetes API AWS https kubernetes sigs github io aws load balancer controller v2 4 deploy installation CoreDNS https github com coredns coredns kube proxy https kubernetes io docs concepts overview components kube proxy VPC CNI https github com aws amazon vpc cni k8s Kubernetes API EKS Amazon VPC CNI Amazon VPC CNI Amazon VPC CNI https docs aws amazon com eks latest userguide managing vpc cni html Amazon EKS kube proxy kube proxy https docs aws amazon com eks latest userguide managing kube proxy html CoreDNS CoreDNS https docs aws amazon com eks latest userguide managing coredns html AWS Load Balancer Controller AWS Load Balancer Controller EKS https docs aws amazon com eks latest userguide aws load balancer controller html Amazon Elastic Block Store EBS CSI Amazon EKS Amazon EBS CSI https docs aws amazon com eks latest userguide managing ebs csi html Amazon Elastic File System Amazon EFS CSI Amazon EFS CSI https docs aws amazon com eks latest userguide efs csi html GitHub metrics server https kubernetes sigs github io metrics server Cluster Autoscaler Cluster Autoscaler Cluster Autoscaler GitHub https github com kubernetes autoscaler releases Karpenter Karpenter https karpenter sh v0 27 3 faq which versions of kubernetes does karpenter support EKS AWS 1 IP Amazon EKS IP 5 2 EKS IAM IAM 3 IAM AWS KMS IP Amazon EKS IP 5 IP CLUSTER cluster name aws ec2 describe subnets subnet ids aws eks describe cluster name CLUSTER query cluster resourcesVpcConfig subnetIds output text query Subnets SubnetId AvailabilityZone AvailableIpAddressCount output table DescribeSubnets subnet 067fa8ee8476abbd6 us east 1a 8184 subnet 0056f7403b17d2b43 us east 1b 8153 subnet 09586f8fb3addbc8c us east 1a 8120 subnet 047f3d276a22c6bce us east 1b 8184 VPC CNI Metrics Helper https github com aws amazon vpc cni k8s blob master cmd cni metrics helper README md VPC CloudWatch IP Amazon EKS UpdateClusterConfiguration API VPC VPC CIDR IP CIDR AWS CIDR VPC IP IP RFC 1918 IP RFC 1918 Amazon EKS CIDR VPC CIDR VPC CIDR VPC EKS IAM IAM CLUSTER cluster name ROLE ARN aws eks describe cluster name CLUSTER query cluster roleArn output text aws iam get role role name ROLE ARN query Role AssumeRolePolicyDocument Version 2012 10 17 Statement Effect Allow Principal Service eks amazonaws com Action sts AssumeRole EKS Amazon EKS Amazon VPC CNI kube proxy CoreDNS Amazon EKS Amazon EKS EKS API Amazon EKS aws eks update addon cluster name my cluster addon name vpc cni addon version version number service account role arn arn aws iam 111122223333 role role name configuration values resolve conflicts PRESERVE EKS aws eks list addons cluster name cluster name warning EKS EKS upgrade add ons and components using the kubernetes api Amazon EKS EKS https docs aws amazon com eks latest userguide eks add ons html EKS https aws amazon com blogs containers amazon eks add ons advanced configuration API EKS API API Kubernetes API API https kubernetes io docs reference using api deprecation policy API https docs aws amazon com eks latest userguide cluster insights html EKS Amazon EKS EKS aws eks list insights region region code cluster name my cluster insights category UPGRADE READINESS name Deprecated APIs removed in Kubernetes v1 29 insightStatus status PASSING reason No deprecated API usage detected within the last 30 days kubernetesVersion 1 29 lastTransitionTime 1698774710 0 lastRefreshTime 1700157422 0 id 123e4567 e89b 42d3 a456 579642341238 description Checks for usage of deprecated APIs that are scheduled for removal in Kubernetes v1 29 Upgrading your cluster before migrating to the updated APIs supported by v1 29 could cause application impact aws eks describe insight region region code id insight id cluster name my cluster Amazon EKS https console aws amazon com eks home clusters status ERROR aws eks describe insight resources insightStatus status ERROR kubernetesResourceUri apis policy v1beta1 podsecuritypolicies null APIs deprecated deprecationDetails usage apis flowcontrol apiserver k8s io v1beta2 flowschemas replacedWith apis flowcontrol apiserver k8s io v1beta3 flowschemas stopServingVersion 1 29 clientStats startServingReplacementVersion 1 26 recommendation Update manifests and API clients to use newer Kubernetes APIs if applicable before upgrading to Kubernetes v1 26 EKS CLI EKS EKS https docs aws amazon com eks latest userguide cluster insights html https aws amazon com blogs containers accelerate the testing and verification of amazon eks upgrades with upgrade insights Kube no Trouble Kube no Trouble https github com doitintl kube no trouble kubent kubent KubeConfig API kubent 4 17PM INF Kube No Trouble kubent 4 17PM INF version 0 7 0 git sha d1bb4e5fd6550b533b2013671aa8419d923ee042 4 17PM INF Initializing collectors and retrieving data 4 17PM INF Target K8s version is 1 24 8 eks ffeb93d 4 l INF Retrieved 93 resources from collector name Cluster 4 17PM INF Retrieved 16 resources from collector name Helm v3 4 17PM INF Loaded ruleset name custom rego tmpl 4 17PM INF Loaded ruleset name deprecated 1 16 rego 4 17PM INF Loaded ruleset name deprecated 1 22 rego 4 17PM INF Loaded ruleset name deprecated 1 25 rego 4 17PM INF Loaded ruleset name deprecated 1 26 rego 4 17PM INF Loaded ruleset name deprecated future rego Deprecated APIs removed in 1 25 KIND NAMESPACE NAME API VERSION REPLACE WITH SINCE PodSecurityPolicy undefined eks privileged policy v1beta1 removed 1 21 0 CI kubent Kube no Trouble https github com doitintl kube no trouble blob master docs k8s sa and role example yaml pluto pluto https pluto docs fairwinds com CI GitHub Action kubent pluto detect all in cluster NAME KIND VERSION REPLACEMENT REMOVED DEPRECATED REPL AVAIL eks privileged PodSecurityPolicy policy v1beta1 false true true API v1 19 apiserver requested deprecated apis kubectl get raw metrics grep apiserver requested deprecated apis apiserver requested deprecated apis group policy removed release 1 25 resource podsecuritypolicies subresource version v1beta1 1 k8s io deprecated true https docs aws amazon com eks latest userguide control plane logs html CLUSTER cluster name QUERY ID aws logs start query log group name aws eks CLUSTER cluster start time date u date 30 minutes s or date v 30M s on MacOS end time date s query string fields message filter annotations k8s io deprecated true query queryId output text echo Query started query id QUERY ID please hold sleep 5 give it some time to query aws logs get query results query id QUERY ID API results field message value kind Event apiVersion audit k8s io v1 level Request auditID 8f7883c6 b3d5 42d7 967a 1121c6f22f01 stage ResponseComplete requestURI apis policy v1beta1 podsecuritypolicies allowWatchBookmarks true u0026resourceVersion 4131 u0026timeout 9m19s u0026timeoutSeconds 559 u0026watch true verb watch user username system apiserver uid 8aabfade da52 47da 83b4 46b16cab30fa groups system masters sourceIPs 1 userAgent kube apiserver v1 24 16 linux amd64 kubernetes af930c1 objectRef resource podsecuritypolicies apiGroup policy apiVersion v1beta1 responseStatus metadata code 200 requestReceivedTimestamp 2023 10 04T12 36 11 849075Z stageTimestamp 2023 10 04T12 45 30 850483Z annotations authorization k8s io decision allow authorization k8s io reason k8s io deprecated true k8s io removed release 1 25 kubectl convert API kubectl convert apps v1 kubectl convert https kubernetes io docs tasks tools install kubectl linux install kubectl convert plugin kubectl convert f file output version group version PodDisruptionBudget topologySpreadConstraints PodDisruptionBudget https kubernetes io docs concepts workloads pods disruptions pod disruption budgets https kubernetes io docs concepts scheduling eviction topology spread constraints 80 apiVersion policy v1 kind PodDisruptionBudget metadata name myapp spec minAvailable 80 selector matchLabels app myapp apiVersion apps v1 kind Deployment metadata name myapp spec replicas 10 selector matchLabels app myapp template metadata labels app myapp spec containers image public ecr aws eks distro kubernetes pause 3 2 name myapp resources requests cpu 1 memory 256M topologySpreadConstraints labelSelector matchLabels app host zone spread maxSkew 2 topologyKey kubernetes io hostname whenUnsatisfiable DoNotSchedule labelSelector matchLabels app host zone spread maxSkew 2 topologyKey topology kubernetes io zone whenUnsatisfiable DoNotSchedule AWS Resilience Hub https aws amazon com resilience hub Amazon EKS Resilience Hub Karpenter Karpenter Karpenter EKS AMI EKS EKS AMI Karpenter Karpenter enable node expiry for karpenter managed nodes Karpenter AMI https karpenter sh docs concepts node templates Karpenter AMI kubelet Amazon EKS v1 28 1 28 API kubelet skew n 2 n 3 EKS 1 28 1 25 kubelet AWS Fargate https docs aws amazon com eks latest userguide fargate html https docs aws amazon com eks latest userguide managed node groups html https docs aws amazon com eks latest userguide worker html Amazon AMI https docs aws amazon com eks latest userguide eks optimized amis html kubelet CVE kubelet v1 28 v1 28 API kubelet n 2 EKS 1 27 kubelet 1 25 AWS Fargate https docs aws amazon com eks latest userguide fargate html https docs aws amazon com eks latest userguide managed node groups html https docs aws amazon com eks latest userguide worker html Karpenter Karpenter ttlSecondsUntilExpired Karpenter EKS AMI Karpenter Deprovisioning https karpenter sh docs concepts deprovisioning methods Karpenter Kubernetes Pod Disruption Budget PDB https kubernetes io docs tasks run application configure pdb ttlSecondsUntilExpired Karpenter Karpenter s Drift https karpenter sh docs concepts deprovisioning drift Karpenter EKS Karpenter https karpenter sh docs concepts settings feature gates Karpenter EKS EKS AMI EKS Karpenter Drift Karpenter EKS AMI https kubernetes io docs concepts policy resource quotas Pod Disruption Budgets https kubernetes io docs concepts workloads pods disruptions PDB Karpenter PDB eksctl EKS EC2 eksctl https eksctl io usage managing nodegroups deleting and draining eksctl https eksctl io usage nodegroup upgrade kOps https kops sigs k8s io operations updates and upgrades EKS Blueprints https aws ia github io terraform aws eks blueprints node groups self managed node groups Amazon EKS Velero https velero io EKS IAM AWS Velero Fargate Fargate o wide fargate EKS 1 23 1 25 terraform API OIDC kubectl CI CD 2 DNS GitOps https aws amazon com blogs containers kubernetes cluster upgrade the blue green deployment strategy ArgoCD Amazon EKS https aws amazon com blogs containers blue green or canary amazon eks clusters migration for stateless argocd workloads API CRI Dockershim 1 24 Amazon EKS https github com kubernetes kubernetes tree master CHANGELOG 1 25 Dockershim Docker Socket DDS 1 25 EKS AMI Dockershim Dockershim Docker 1 25 1 25 kubectl Detector for Docker Socket DDS https github com aws containers kubectl detector for docker socket 1 25 PSP PSS PaC PodSecurityPolicy 1 21 https kubernetes io blog 2021 04 06 podsecuritypolicy deprecation past present and future 1 25 PSP 1 25 PSS PaC AWS EKS FAQ https docs aws amazon com eks latest userguide pod security policy removal faq html PSS PSA https aws github io aws eks best practices security docs pods pod security standards pss and pod security admission psa PSP https kubernetes io blog 2021 04 06 podsecuritypolicy deprecation past present and future 1 23 In tree CSI CSI In tree Amazon EBS CSI Amazon EKS 1 23 1 22 1 23 Amazon EBS CSI https docs aws amazon com eks latest userguide ebs csi html Amazon EBS CSI https docs aws amazon com eks latest userguide ebs csi migration faq html ClowdHaus EKS ClowdHaus EKS https clowdhaus github io eksup Amazon EKS CLI GoNoGo GoNoGo https github com FairwindsOps GoNoGo |
eks In tree Out of tree exclude true search | ---
search:
exclude: true
---
# 영구 스토리지 옵션
## In-tree와 Out-of-tree 볼륨 플러그인
컨테이너 스토리지 인터페이스(CSI)가 도입되기 전에는 모든 볼륨 플러그인이 in-tree 였습니다. 즉, 코어 쿠버네티스 바이너리와 함께 빌드, 연결, 컴파일 및 제공되고 핵심 쿠버네티스 API를 확장했습니다. 이는 쿠버네티스에 새로운 스토리지 시스템(볼륨 플러그인)을 추가하려면 핵심 코어 쿠버네티스 코드 저장소에 대한 코드를 확인해야 하는 것을 의미했습니다.
Out-of-tree 볼륨 플러그인은 쿠버네티스 코드 베이스와 독립적으로 개발되며 쿠버네티스 클러스터에 확장으로 배포(및 설치) 됩니다. 이를 통해 벤더는 쿠버네티스 릴리스 주기와 별도로 드라이버를 업데이트 할 수 있습니다. 이는 쿠버네티스가 벤더에 k8s와 인터페이스하는 표준 방법을 제공하는 스토리지 인터페이스 혹은 CSI를 만들었기 때문에 가능합니다.
Amazon Elastic Kubernetes Services (EKS) 스토리지 클래스 및 CSI 드라이버에 대한 자세한 내용을 [AWS 문서](https://docs.aws.amazon.com/eks/latest/userguide/storage.html)에서 확인할 수 있습니다.
## 윈도우용 In-tree 볼륨 플러그인
쿠버네티스 볼륨을 사용하면 데이터 지속성 요구 사항이 있는 애플리케이션을 쿠버네티스에 배포할 수 있습니다. 퍼시스턴트 볼륨 관리는 볼륨 프로비저닝/프로비저닝 해제/크기 조정, 쿠버네티스 노드에 볼륨 연결/분리, 파드의 개별 컨테이너에 볼륨 마운트/마운트 해제로 구성됩니다. 특정 스토리지 백엔드 또는 프로토콜에 대해 이런 볼륨 관리 작업을 구현하기 위한 코드는 쿠버네티스 볼륨 플러그인 **(In-tree 볼륨 플러그인)** 형식으로 제공됩니다. Amazon EKS에서는 윈도우에서 다음과 같은 클래스의 쿠버네티스 볼륨 플러그인이 지원됩니다:
*In-tree 볼륨 플러그인:* [awsElasticBlockStore](https://kubernetes.io/docs/concepts/storage/volumes/#awselasticblockstore)
윈도우 노드에서 In-tree 볼륨 플러그인을 사용하기 위해서는 NTFS를 fsType 으로 사용하기 위한 추가 StorageClass를 생성해야 합니다. EKS에서 기본 StorageClass는 ext4를 기본 fsType으로 사용합니다.
StorageClass는 관리자가 제공하는 스토리지의 "클래스"를 설명하는 방법을 제공합니다. 다양한 클래스는 QoS 수준, 백업 정책 또는 클러스터 관리자가 결정한 임의 정책에 매핑될 수 있습니다. 쿠버네티스는 클래스가 무엇을 나타내는지에 대해 의견이 없습니다. 이 개념은 다른 스토리지 시스템에서는 "프로파일" 이라고 부르기도 합니다.
다음 명령을 실행하여 확인할 수 있습니다:
```bash
kubectl describe storageclass gp2
```
출력:
```bash
Name: gp2
IsDefaultClass: Yes
Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"storage.k8s.io/v1","kind":"StorageClas
","metadata":{"annotations":{"storageclass.kubernetes.io/is-default-class":"true"},"name":"gp2"},"parameters":{"fsType"
"ext4","type":"gp2"},"provisioner":"kubernetes.io/aws-ebs","volumeBindingMode":"WaitForFirstConsumer"}
,storageclass.kubernetes.io/is-default-class=true
Provisioner: kubernetes.io/aws-ebs
Parameters: fsType=ext4,type=gp2
AllowVolumeExpansion: <unset>
MountOptions: <none>
ReclaimPolicy: Delete
VolumeBindingMode: WaitForFirstConsumer
Events: <none>
```
**NTFS**를 지원하는 새 StorageClass를 생성하려면 다음 매니페스트를 사용하십시오:
```yaml
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: gp2-windows
provisioner: kubernetes.io/aws-ebs
parameters:
type: gp2
fsType: ntfs
volumeBindingMode: WaitForFirstConsumer
```
다음 명령을 실행하여 StorageClass를 생성합니다:
```bash
kubectl apply -f NTFSStorageClass.yaml
```
다음 단계는 퍼시스턴트 볼륨 클레임(PVC)을 생성하는 것입니다.
퍼시스턴트 볼륨(PV)은 관리자가 프로비저닝했거나 PVC를 사용하여 동적으로 프로비저닝된 클러스터의 스토리지입니다. 노드가 클러스터 리소스인 것처럼 클러스터의 리소스입니다. 이 API 객체는 NFS, iSCSI 또는 클라우드 공급자별 스토리지 시스템 등 스토리지 구현의 세부 정보를 캡처합니다.
PVC는 사용자의 스토리지 요청입니다. 클레임은 특정 크기 및 액세스 모드를 요청할 수 있습니다(예: ReadWriteOnce, ReadOnlyMany 또는 ReadWriteMan로 마운트될 수 있음).
사용자에게는 다양한 유즈케이스를 위해 성능과 같은 다양한 속성을 가진 PV가 필요합니다. 클러스터 관리자는 사용자에게 해당 볼륨이 구현되는 방법에 대한 세부 정보를 노출시키지 않고도 크기 및 액세스 모드보다 더 다양한 방식으로 PV를 제공할 수 있어야 합니다. 이런 요구 사항을 충족하기 위해 StorageClass 리소스가 있습니다.
아래 예제에서 윈도우 네임스페이스 내에 PVC가 생성되었습니다.
```yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: ebs-windows-pv-claim
namespace: windows
spec:
accessModes:
- ReadWriteOnce
storageClassName: gp2-windows
resources:
requests:
storage: 1Gi
```
다음 명령을 실행하여 PVC를 만듭니다:
```bash
kubectl apply -f persistent-volume-claim.yaml
```
다음 매니페스트에서는 윈도우 파드를 생성하고 VolumeMount를 `C:\Data`로 설정하고 PVC를 `C:\Data`에 연결된 스토리지로 사용합니다.
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: windows-server-ltsc2019
namespace: windows
spec:
selector:
matchLabels:
app: windows-server-ltsc2019
tier: backend
track: stable
replicas: 1
template:
metadata:
labels:
app: windows-server-ltsc2019
tier: backend
track: stable
spec:
containers:
- name: windows-server-ltsc2019
image: mcr.microsoft.com/windows/servercore:ltsc2019
ports:
- name: http
containerPort: 80
imagePullPolicy: IfNotPresent
volumeMounts:
- mountPath: "C:\\data"
name: test-volume
volumes:
- name: test-volume
persistentVolumeClaim:
claimName: ebs-windows-pv-claim
nodeSelector:
kubernetes.io/os: windows
node.kubernetes.io/windows-build: '10.0.17763'
```
PowerShell을 통해 윈도우 파드에 액세스하여 결과를 테스트합니다:
```bash
kubectl exec -it podname powershell -n windows
```
윈도우 파드 내에서 `ls`를 수행합니다:
출력:
```bash
PS C:\> ls
Directory: C:\
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 3/8/2021 1:54 PM data
d----- 3/8/2021 3:37 PM inetpub
d-r--- 1/9/2021 7:26 AM Program Files
d----- 1/9/2021 7:18 AM Program Files (x86)
d-r--- 1/9/2021 7:28 AM Users
d----- 3/8/2021 3:36 PM var
d----- 3/8/2021 3:36 PM Windows
-a---- 12/7/2019 4:20 AM 5510 License.txt
```
**data directory** 는 EBS 볼륨에 의해 제공됩니다.
## 윈도우 Out-of-tree
CSI 플러그인과 연결된 코드는 일반적으로 컨테이너 이미지로 배포되고 데몬셋(DaemonSet) 및 스테이트풀셋(StatefulSet)과 같은 표준 쿠버네티스 구성을 사용하여 배포되는 out-of-tree 스크립트 및 바이너리로 제공됩니다. CSI 플러그인은 쿠버네티스에서 광범위한 볼륨 관리 작업을 처리합니다. CSI 플러그인은 일반적으로 노드 플러그인(각 노드에서 데몬셋으로 실행됨)과 컨트롤러 플러그인으로 구성됩니다.
CSI 노드 플러그인 (특히 블록 장치 또는 공유 파일 시스템을 통해 노출되는 퍼시스턴트 볼륨과 관련된 플러그인)은 디스크 장치 스캔, 파일 시스템 탑재 등과 같은 다양한 권한 작업을 수행해야 합니다. 이런 작업은 호스트 운영 체제마다 다릅니다. 리눅스 워커 노드의 경우 컨테이너화된 CSI 노드 플러그인은 일반적으로 권한 있는 컨테이너로 배포됩니다. 윈도우 워커 노드의 경우 각 윈도우 노드에 사전 설치해야 하는 커뮤니티 관리 독립 실행형 바이너리인 [csi-proxy](https://github.com/kubernetes-csi/csi-proxy) 를 사용하여 컨테이너화된 CSI 노드 플러그인에 대한 권한 있는 작업이 지원됩니다.
[Amazon EKS 최적화 윈도우 AMI](https://docs.aws.amazon.com/eks/latest/userguide/eks-optimized-windows-ami.html)에서는 2022년 4월부터 CSI-proxy가 포함됩니다. 고객은 윈도우 노드의 [SMB CSI 드라이버](https://github.com/kubernetes-csi/csi-driver-smb)를 사용하여 [Amazon FSx for Windows File Server](https://aws.amazon.com/fsx/windows/), [Amazon FSx for NetApp ONTAP SMB Shares](https://aws.amazon.com/fsx/netapp-ontap/), 및/또는 [AWS Storage Gateway – File Gateway](https://aws.amazon.com/storagegateway/file/)에 액세스 할 수 있습니다.
다음 [블로그](https://aws.amazon.com/blogs/modernizing-with-aws/using-smb-csi-driver-on-amazon-eks-windows-nodes/)에서는 Amazon FSx for Windows File Server를 위도우 파드용 영구 스토리지로 사용하도록 SMB CSI 드라이버를 설정하는 방법에 대한 세부 정보가 나와 있습니다.
## Amazon FSx for Windows File Server
한 가지 옵션은 [SMB Global Mapping](https://docs.microsoft.com/en-us/virtualization/windowscontainers/manage-containers/persistent-storage)이라는 SMB 기능을 통해 Windows 파일 서버용 Amazon FSx를 사용하는 것입니다. 이 기능을 사용하면 호스트에 SMB 공유를 마운트한 다음 해당 공유의 디렉터리를 컨테이너로 전달할 수 있습니다. 컨테이너를 특정 서버, 공유, 사용자 이름 또는 암호로 구성할 필요가 없습니다. 대신 호스트에서 모두 처리됩니다. 컨테이너는 로컬 스토리지가 있는 것처럼 작동합니다.
> SMB Global Mapping은 오케스트레이터에게 투명하게 전달되며 HostPath를 통해 마운트되므로 **보안 문제가 발생할 수 있습니다**.
아래 예제에서, `G:\Directory\app-state` 경로는 윈도우 노드의 SMB 공유입니다.
```yaml
apiVersion: v1
kind: Pod
metadata:
name: test-fsx
spec:
containers:
- name: test-fsx
image: mcr.microsoft.com/windows/servercore:ltsc2019
command:
- powershell.exe
- -command
- "Add-WindowsFeature Web-Server; Invoke-WebRequest -UseBasicParsing -Uri 'https://dotnetbinaries.blob.core.windows.net/servicemonitor/2.0.1.6/ServiceMonitor.exe' -OutFile 'C:\\ServiceMonitor.exe'; echo '<html><body><br/><br/><marquee><H1>Hello EKS!!!<H1><marquee></body><html>' > C:\\inetpub\\wwwroot\\default.html; C:\\ServiceMonitor.exe 'w3svc'; "
volumeMounts:
- mountPath: C:\dotnetapp\app-state
name: test-mount
volumes:
- name: test-mount
hostPath:
path: G:\Directory\app-state
type: Directory
nodeSelector:
beta.kubernetes.io/os: windows
beta.kubernetes.io/arch: amd64
```
다음 [블로그](https://aws.amazon.com/blogs/containers/using-amazon-fsx-for-windows-file-server-on-eks-windows-containers/) 에서는 Amazon FSx for Windows File Server를 윈도우 파드용 영구 스토리지로 설정하는 방법에 대한 세부 정보가 나와 있습니다. | eks | search exclude true In tree Out of tree CSI in tree API Out of tree k8s CSI Amazon Elastic Kubernetes Services EKS CSI AWS https docs aws amazon com eks latest userguide storage html In tree In tree Amazon EKS In tree awsElasticBlockStore https kubernetes io docs concepts storage volumes awselasticblockstore In tree NTFS fsType StorageClass EKS StorageClass ext4 fsType StorageClass QoS bash kubectl describe storageclass gp2 bash Name gp2 IsDefaultClass Yes Annotations kubectl kubernetes io last applied configuration apiVersion storage k8s io v1 kind StorageClas metadata annotations storageclass kubernetes io is default class true name gp2 parameters fsType ext4 type gp2 provisioner kubernetes io aws ebs volumeBindingMode WaitForFirstConsumer storageclass kubernetes io is default class true Provisioner kubernetes io aws ebs Parameters fsType ext4 type gp2 AllowVolumeExpansion unset MountOptions none ReclaimPolicy Delete VolumeBindingMode WaitForFirstConsumer Events none NTFS StorageClass yaml kind StorageClass apiVersion storage k8s io v1 metadata name gp2 windows provisioner kubernetes io aws ebs parameters type gp2 fsType ntfs volumeBindingMode WaitForFirstConsumer StorageClass bash kubectl apply f NTFSStorageClass yaml PVC PV PVC API NFS iSCSI PVC ReadWriteOnce ReadOnlyMany ReadWriteMan PV PV StorageClass PVC yaml apiVersion v1 kind PersistentVolumeClaim metadata name ebs windows pv claim namespace windows spec accessModes ReadWriteOnce storageClassName gp2 windows resources requests storage 1Gi PVC bash kubectl apply f persistent volume claim yaml VolumeMount C Data PVC C Data yaml apiVersion apps v1 kind Deployment metadata name windows server ltsc2019 namespace windows spec selector matchLabels app windows server ltsc2019 tier backend track stable replicas 1 template metadata labels app windows server ltsc2019 tier backend track stable spec containers name windows server ltsc2019 image mcr microsoft com windows servercore ltsc2019 ports name http containerPort 80 imagePullPolicy IfNotPresent volumeMounts mountPath C data name test volume volumes name test volume persistentVolumeClaim claimName ebs windows pv claim nodeSelector kubernetes io os windows node kubernetes io windows build 10 0 17763 PowerShell bash kubectl exec it podname powershell n windows ls bash PS C ls Directory C Mode LastWriteTime Length Name d 3 8 2021 1 54 PM data d 3 8 2021 3 37 PM inetpub d r 1 9 2021 7 26 AM Program Files d 1 9 2021 7 18 AM Program Files x86 d r 1 9 2021 7 28 AM Users d 3 8 2021 3 36 PM var d 3 8 2021 3 36 PM Windows a 12 7 2019 4 20 AM 5510 License txt data directory EBS Out of tree CSI DaemonSet StatefulSet out of tree CSI CSI CSI CSI csi proxy https github com kubernetes csi csi proxy CSI Amazon EKS AMI https docs aws amazon com eks latest userguide eks optimized windows ami html 2022 4 CSI proxy SMB CSI https github com kubernetes csi csi driver smb Amazon FSx for Windows File Server https aws amazon com fsx windows Amazon FSx for NetApp ONTAP SMB Shares https aws amazon com fsx netapp ontap AWS Storage Gateway File Gateway https aws amazon com storagegateway file https aws amazon com blogs modernizing with aws using smb csi driver on amazon eks windows nodes Amazon FSx for Windows File Server SMB CSI Amazon FSx for Windows File Server SMB Global Mapping https docs microsoft com en us virtualization windowscontainers manage containers persistent storage SMB Windows Amazon FSx SMB SMB Global Mapping HostPath G Directory app state SMB yaml apiVersion v1 kind Pod metadata name test fsx spec containers name test fsx image mcr microsoft com windows servercore ltsc2019 command powershell exe command Add WindowsFeature Web Server Invoke WebRequest UseBasicParsing Uri https dotnetbinaries blob core windows net servicemonitor 2 0 1 6 ServiceMonitor exe OutFile C ServiceMonitor exe echo html body br br marquee H1 Hello EKS H1 marquee body html C inetpub wwwroot default html C ServiceMonitor exe w3svc volumeMounts mountPath C dotnetapp app state name test mount volumes name test mount hostPath path G Directory app state type Directory nodeSelector beta kubernetes io os windows beta kubernetes io arch amd64 https aws amazon com blogs containers using amazon fsx for windows file server on eks windows containers Amazon FSx for Windows File Server |
eks exclude true Heterogeneous search | ---
search:
exclude: true
---
# 이기종 워크로드 실행¶
쿠버네티스는 동일한 클러스터에 리눅스 및 윈도우 노드를 혼합하여 사용할 수 있는 이기종(Heterogeneous) 클러스터를 지원합니다. 해당 클러스터 내에는 리눅스에서 실행되는 파드와 윈도우에서 실행되는 파드를 혼합하여 사용할 수 있습니다. 동일한 클러스터에서 여러 버전의 윈도우를 실행할 수도 있습니다. 하지만 이 결정을 내릴 때 고려해야 할 몇 가지 요소(아래 설명 참조)가 있습니다.
# 노드 내 파드 할당 모범 사례
리눅스 및 윈도우 워크로드를 각각의 OS별 노드에 유지하려면 노드 셀렉터(NodeSelector)와 테인트(Taint)/톨러레이션(Toleration)을 조합하여 사용해야 합니다. 이기종 환경에서 워크로드를 스케줄링하는 주된 목적은 기존 리눅스 워크로드와의 호환성이 깨지지 않도록 하는 것입니다.
## 특정 OS 워크로드가 적절한 컨테이너 노드에서 실행 보장
사용자는 노드셀렉터를 사용하여 윈도우 컨테이너를 적절한 호스트에서 스케줄링 할 수 있습니다. 현재 모든 쿠버네티스 노드에는 다음과 같은 default labels 이 있습니다:
kubernetes.io/os = [windows|linux]
kubernetes.io/arch = [amd64|arm64|...]
파드 스펙에 ``"kubernetes.io/os": windows`` 와 같은 노드셀렉터가 포함되지 않는 경우, 파드는 윈도우 또는 리눅스 어느 호스트에서나 스케줄링 될 수 있습니다. 윈도우 컨테이너는 윈도우에서만 실행할 수 있고 리눅스 컨테이너는 리눅스에서만 실행할 수 있기 때문에 문제가 될 수 있습니다.
엔터프라이즈 환경에서는 리눅스 컨테이너에 대한 기존 배포가 많을 뿐만 아니라 헬름 차트와 같은 기성 구성 에코시스템(off-the-shelf configurations)을 갖는 것이 일반적입니다. 이런 상황에서는 디플로이먼트의 노드셀렉터를 변경하는 것을 주저할 수 있습니다. **대안은 테인트를 사용하는 것**입니다.
예를 들어: `--register-with-taints='os=windows:NoSchedule'`
EKS를 사용하는 경우, eksctl은 clusterConfig를 통해 테인트를 적용하는 방법을 제공합니다:
```yaml
NodeGroups:
- name: windows-ng
amiFamily: WindowsServer2022FullContainer
...
labels:
nodeclass: windows2022
taints:
os: "windows:NoSchedule"
```
모든 윈도우 노드에 테인트를 추가하는 경우, 스케줄러는 테인트를 허용하지 않는 한 해당 노드에서 파드를 스케줄링하지 않습니다. 다음은 파드 매니페스트의 예시입니다:
```yaml
nodeSelector:
kubernetes.io/os: windows
tolerations:
- key: "os"
operator: "Equal"
value: "windows"
effect: "NoSchedule"
```
## 동일한 클러스터에서 여러 윈도우 빌드 처리
각 파드에서 사용하는 윈도우 컨테이너 베이스 이미지는 노드와 동일한 커널 빌드 버전과 일치해야 합니다. 동일한 클러스터에서 여러 윈도우 Server 빌드를 사용하려면 추가 노드 레이블인 노드셀렉터를 설정하거나 **windows-build** 레이블을 활용해야 합니다.
쿠버네티스 1.17 버전에서는 **node.kubernetes.io/windows-build** 라는 새로운 레이블을 자동으로 추가하여 동일한 클러스터에서 여러 윈도우 빌드의 관리를 단순화 합니다. 이전 버전을 실행 중인 경우 이 레이블을 윈도우 노드에 수동으로 추가하는 것이 좋습니다.
이 레이블에는 호환성을 위해 일치해야 하는 윈도우 메이저, 마이너, 그리고 빌드 번호가 반영되어 있습니다. 다음은 현재 각 윈도우 서버 버전에 사용되는 값입니다.
중요한 점은 윈도우 서버가 장기 서비스 채널(LTSC)를 기본 릴리스 채널로 이동하고 있다는 것입니다. 윈도우 서버 반기 채널(SAC)은 2022년 8월 9일에 사용 중지되었습니다. 윈도우 서버의 향후 SAC 릴리스는 없습니다.
| Product Name | Build Number(s) |
| -------- | -------- |
| Server full 2022 LTSC | 10.0.20348 |
| Server core 2019 LTSC | 10.0.17763 |
다음 명령을 통해 OS 빌드 버전을 확인할 수 있습니다:
```bash
kubectl get nodes -o wide
```
KERNEL-VERSION 출력은 윈도우 OS 빌드 버전을 나타냅니다.
```bash
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME
ip-10-10-2-235.ec2.internal Ready <none> 23m v1.24.7-eks-fb459a0 10.10.2.235 3.236.30.157 Windows Server 2022 Datacenter 10.0.20348.1607 containerd://1.6.6
ip-10-10-31-27.ec2.internal Ready <none> 23m v1.24.7-eks-fb459a0 10.10.31.27 44.204.218.24 Windows Server 2019 Datacenter 10.0.17763.4131 containerd://1.6.6
ip-10-10-7-54.ec2.internal Ready <none> 31m v1.24.11-eks-a59e1f0 10.10.7.54 3.227.8.172 Amazon Linux 2 5.10.173-154.642.amzn2.x86_64 containerd://1.6.19
```
아래 예제에서는 다양한 윈도우 노드 그룹 OS 버전을 실행할 때 올바른 윈도우 빌드 버전을 일치시키기 위해 추가 노드셀렉터를 파드 스펙에 적용합니다.
```yaml
nodeSelector:
kubernetes.io/os: windows
node.kubernetes.io/windows-build: '10.0.20348'
tolerations:
- key: "os"
operator: "Equal"
value: "windows"
effect: "NoSchedule"
```
## RuntimeClass를 사용하여 파드 매니페스트의 노드셀렉터와 톨러레이션 단순화
RuntimeClass를 사용하여 테인트와 톨러레이션을 사용하는 프로세스를 간소화할 수 있습니다. 이런 테인트와 톨러레이션을 캡슐화하는 RuntimeClass 오브젝트를 만들어 이 작업을 수행할 수 있습니다.
다음 매니페스트를 통해 RuntimeClass를 생성합니다:
```yaml
apiVersion: node.k8s.io/v1beta1
kind: RuntimeClass
metadata:
name: windows-2022
handler: 'docker'
scheduling:
nodeSelector:
kubernetes.io/os: 'windows'
kubernetes.io/arch: 'amd64'
node.kubernetes.io/windows-build: '10.0.20348'
tolerations:
- effect: NoSchedule
key: os
operator: Equal
value: "windows"
```
RuntimeClass가 생성되면, 파드 매니페스트의 스펙을 통해 사용합니다.
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: iis-2022
labels:
app: iis-2022
spec:
replicas: 1
template:
metadata:
name: iis-2022
labels:
app: iis-2022
spec:
runtimeClassName: windows-2022
containers:
- name: iis
```
## 관리형 노드 그룹 지원
고객이 윈도우 애플리케이션을 보다 간소화된 방식으로 실행할 수 있도록 AWS에서는 2022년 12월 15일에 [윈도우 컨테이너에 대한 EKS 관리형 노드 그룹 (MNG) 지원](https://aws.amazon.com/about-aws/whats-new/2022/12/amazon-eks-automated-provisioning-lifecycle-management-windows-containers/)을 시작 했습니다. [윈도우 관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html)은 [리눅스 관리형 노드 그룹](https://docs.aws.amazon.com/eks/latest/userguide/managed-node-groups.html)과 동일한 워크플로우와 도구를 사용하여 활성화됩니다. 윈도우 서버 2019 및 2022 패밀리의 Full, Core AMI(Amazon Machine Image)가 지원 됩니다.
관리형 노드 그룹(MNG)에 지원되는 AMI 패밀리는 다음과 같습니다:
| AMI Family |
| --------- |
| WINDOWS_CORE_2019_x86_64 |
| WINDOWS_FULL_2019_x86_64 |
| WINDOWS_CORE_2022_x86_64 |
| WINDOWS_FULL_2022_x86_64 |
## 추가 문서
AWS 공식 문서:
https://docs.aws.amazon.com/eks/latest/userguide/windows-support.html
파드 네트워킹(CNI)의 작동 방식을 더 잘 이해하려면 다음 링크를 확인하십시오: https://docs.aws.amazon.com/eks/latest/userguide/pod-networking.html
EKS 기반 윈도우용 관리형 노드 그룹 배포에 관한 AWS 블로그:
https://aws.amazon.com/blogs/containers/deploying-amazon-eks-windows-managed-node-groups | eks | search exclude true Heterogeneous OS NodeSelector Taint Toleration OS default labels kubernetes io os windows linux kubernetes io arch amd64 arm64 kubernetes io os windows off the shelf configurations register with taints os windows NoSchedule EKS eksctl clusterConfig yaml NodeGroups name windows ng amiFamily WindowsServer2022FullContainer labels nodeclass windows2022 taints os windows NoSchedule yaml nodeSelector kubernetes io os windows tolerations key os operator Equal value windows effect NoSchedule Server windows build 1 17 node kubernetes io windows build LTSC SAC 2022 8 9 SAC Product Name Build Number s Server full 2022 LTSC 10 0 20348 Server core 2019 LTSC 10 0 17763 OS bash kubectl get nodes o wide KERNEL VERSION OS bash NAME STATUS ROLES AGE VERSION INTERNAL IP EXTERNAL IP OS IMAGE KERNEL VERSION CONTAINER RUNTIME ip 10 10 2 235 ec2 internal Ready none 23m v1 24 7 eks fb459a0 10 10 2 235 3 236 30 157 Windows Server 2022 Datacenter 10 0 20348 1607 containerd 1 6 6 ip 10 10 31 27 ec2 internal Ready none 23m v1 24 7 eks fb459a0 10 10 31 27 44 204 218 24 Windows Server 2019 Datacenter 10 0 17763 4131 containerd 1 6 6 ip 10 10 7 54 ec2 internal Ready none 31m v1 24 11 eks a59e1f0 10 10 7 54 3 227 8 172 Amazon Linux 2 5 10 173 154 642 amzn2 x86 64 containerd 1 6 19 OS yaml nodeSelector kubernetes io os windows node kubernetes io windows build 10 0 20348 tolerations key os operator Equal value windows effect NoSchedule RuntimeClass RuntimeClass RuntimeClass RuntimeClass yaml apiVersion node k8s io v1beta1 kind RuntimeClass metadata name windows 2022 handler docker scheduling nodeSelector kubernetes io os windows kubernetes io arch amd64 node kubernetes io windows build 10 0 20348 tolerations effect NoSchedule key os operator Equal value windows RuntimeClass yaml apiVersion apps v1 kind Deployment metadata name iis 2022 labels app iis 2022 spec replicas 1 template metadata name iis 2022 labels app iis 2022 spec runtimeClassName windows 2022 containers name iis AWS 2022 12 15 EKS MNG https aws amazon com about aws whats new 2022 12 amazon eks automated provisioning lifecycle management windows containers https docs aws amazon com eks latest userguide managed node groups html https docs aws amazon com eks latest userguide managed node groups html 2019 2022 Full Core AMI Amazon Machine Image MNG AMI AMI Family WINDOWS CORE 2019 x86 64 WINDOWS FULL 2019 x86 64 WINDOWS CORE 2022 x86 64 WINDOWS FULL 2022 x86 64 AWS https docs aws amazon com eks latest userguide windows support html CNI https docs aws amazon com eks latest userguide pod networking html EKS AWS https aws amazon com blogs containers deploying amazon eks windows managed node groups |
eks info We ve Moved to the AWS Docs Bookmarks and links will continue to work but we recommend updating them for faster access in the future on the AWS Docs Please visit our new site for the latest version This content has been updated and relocated to improve your experience |
!!! info "We've Moved to the AWS Docs! 🚀"
This content has been updated and relocated to improve your experience.
Please visit our new site for the latest version:
[AWS EKS Best Practices Guide](https://docs.aws.amazon.com/eks/latest/best-practices/windows-monitoring.html) on the AWS Docs
Bookmarks and links will continue to work, but we recommend updating them for faster access in the future.
---
# Monitoring
Prometheus, a [graduated CNCF project](https://www.cncf.io/projects/) is by far the most popular monitoring system with native integration into Kubernetes. Prometheus collects metrics around containers, pods, nodes, and clusters. Additionally, Prometheus leverages AlertsManager which lets you program alerts to warn you if something in your cluster is going wrong. Prometheus stores the metric data as a time series data identified by metric name and key/value pairs. Prometheus includes away to query using a language called PromQL, which is short for Prometheus Query Language.
The high level architecture of Prometheus metrics collection is shown below:
![Prometheus Metrics collection](./images/prom.png)
Prometheus uses a pull mechanism and scrapes metrics from targets using exporters and from the Kubernetes API using the [kube state metrics](https://github.com/kubernetes/kube-state-metrics). This means applications and services must expose a HTTP(S) endpoint containing Prometheus formatted metrics. Prometheus will then, as per its configuration, periodically pull metrics from these HTTP(S) endpoints.
An exporter lets you consume third party metrics as Prometheus formatted metrics. A Prometheus exporter is typically deployed on each node. For a complete list of exporters please refer to the Prometheus [exporters](https://prometheus.io/docs/instrumenting/exporters/). While [node exporter](https://github.com/prometheus/node_exporter) is suited for exporting host hardware and OS metrics for linux nodes, it wont work for Windows nodes.
In a **mixed node EKS cluster with Windows nodes** when you use the stable [Prometheus helm chart](https://github.com/prometheus-community/helm-charts), you will see failed pods on the Windows nodes, as this exporter is not intended for Windows. You will need to treat the Windows worker pool separate and instead install the [Windows exporter](https://github.com/prometheus-community/windows_exporter) on the Windows worker node group.
In order to setup Prometheus monitoring for Windows nodes, you need to download and install the WMI exporter on the Windows server itself and then setup the targets inside the scrape configuration of the Prometheus configuration file.
The [releases page](https://github.com/prometheus-community/windows_exporter/releases) provides all available .msi installers, with respective feature sets and bug fixes. The installer will setup the windows_exporter as a Windows service, as well as create an exception in the Windows firewall. If the installer is run without any parameters, the exporter will run with default settings for enabled collectors, ports, etc.
You can check out the **scheduling best practices** section of this guide which suggests the use of taints/tolerations or RuntimeClass to selectively deploy node exporter only to linux nodes, while the Windows exporter is installed on Windows nodes as you bootstrap the node or using a configuration management tool of your choice (example chef, Ansible, SSM etc).
Note that, unlike the linux nodes where the node exporter is installed as a daemonset , on Windows nodes the WMI exporter is installed on the host itself. The exporter will export metrics such as the CPU usage, the memory and the disk I/O usage and can also be used to monitor IIS sites and applications, the network interfaces and services.
The windows_exporter will expose all metrics from enabled collectors by default. This is the recommended way to collect metrics to avoid errors. However, for advanced use the windows_exporter can be passed an optional list of collectors to filter metrics. The collect[] parameter, in the Prometheus configuration lets you do that.
The default install steps for Windows include downloading and starting the exporter as a service during the bootstrapping process with arguments, such as the collectors you want to filter.
```powershell
> Powershell Invoke-WebRequest https://github.com/prometheus-community/windows_exporter/releases/download/v0.13.0/windows_exporter-0.13.0-amd64.msi -OutFile <DOWNLOADPATH>
> msiexec /i <DOWNLOADPATH> ENABLED_COLLECTORS="cpu,cs,logical_disk,net,os,system,container,memory"
```
By default, the metrics can be scraped at the /metrics endpoint on port 9182.
At this point, Prometheus can consume the metrics by adding the following scrape_config to the Prometheus configuration
```yaml
scrape_configs:
- job_name: "prometheus"
static_configs:
- targets: ['localhost:9090']
...
- job_name: "wmi_exporter"
scrape_interval: 10s
static_configs:
- targets: ['<windows-node1-ip>:9182', '<windows-node2-ip>:9182', ...]
```
Prometheus configuration is reloaded using
```bash
> ps aux | grep prometheus
> kill HUP <PID>
```
A better and recommended way to add targets is to use a Custom Resource Definition called ServiceMonitor, which comes as part of the [Prometheus operator](https://github.com/prometheus-operator/kube-prometheus/releases)] that provides the definition for a ServiceMonitor Object and a controller that will activate the ServiceMonitors we define and automatically build the required Prometheus configuration.
The ServiceMonitor, which declaratively specifies how groups of Kubernetes services should be monitored, is used to define an application you wish to scrape metrics from within Kubernetes. Within the ServiceMonitor we specify the Kubernetes labels that the operator can use to identify the Kubernetes Service which in turn identifies the Pods, that we wish to monitor.
In order to leverage the ServiceMonitor, create an Endpoint object pointing to specific Windows targets, a headless service and a ServiceMontor for the Windows nodes.
```yaml
apiVersion: v1
kind: Endpoints
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: kube-system
subsets:
- addresses:
- ip: NODE-ONE-IP
targetRef:
kind: Node
name: NODE-ONE-NAME
- ip: NODE-TWO-IP
targetRef:
kind: Node
name: NODE-TWO-NAME
- ip: NODE-THREE-IP
targetRef:
kind: Node
name: NODE-THREE-NAME
ports:
- name: http-metrics
port: 9182
protocol: TCP
---
apiVersion: v1
kind: Service ##Headless Service
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: kube-system
spec:
clusterIP: None
ports:
- name: http-metrics
port: 9182
protocol: TCP
targetPort: 9182
sessionAffinity: None
type: ClusterIP
---
apiVersion: monitoring.coreos.com/v1
kind: ServiceMonitor ##Custom ServiceMonitor Object
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: monitoring
spec:
endpoints:
- interval: 30s
port: http-metrics
jobLabel: k8s-app
namespaceSelector:
matchNames:
- kube-system
selector:
matchLabels:
k8s-app: wmiexporter
```
For more details on the operator and the usage of ServiceMonitor, checkout the official [operator](https://github.com/prometheus-operator/kube-prometheus) documentation. Note that Prometheus does support dynamic target discovery using many [service discovery](https://prometheus.io/blog/2015/06/01/advanced-service-discovery/) options.
| eks | info We ve Moved to the AWS Docs This content has been updated and relocated to improve your experience Please visit our new site for the latest version AWS EKS Best Practices Guide https docs aws amazon com eks latest best practices windows monitoring html on the AWS Docs Bookmarks and links will continue to work but we recommend updating them for faster access in the future Monitoring Prometheus a graduated CNCF project https www cncf io projects is by far the most popular monitoring system with native integration into Kubernetes Prometheus collects metrics around containers pods nodes and clusters Additionally Prometheus leverages AlertsManager which lets you program alerts to warn you if something in your cluster is going wrong Prometheus stores the metric data as a time series data identified by metric name and key value pairs Prometheus includes away to query using a language called PromQL which is short for Prometheus Query Language The high level architecture of Prometheus metrics collection is shown below Prometheus Metrics collection images prom png Prometheus uses a pull mechanism and scrapes metrics from targets using exporters and from the Kubernetes API using the kube state metrics https github com kubernetes kube state metrics This means applications and services must expose a HTTP S endpoint containing Prometheus formatted metrics Prometheus will then as per its configuration periodically pull metrics from these HTTP S endpoints An exporter lets you consume third party metrics as Prometheus formatted metrics A Prometheus exporter is typically deployed on each node For a complete list of exporters please refer to the Prometheus exporters https prometheus io docs instrumenting exporters While node exporter https github com prometheus node exporter is suited for exporting host hardware and OS metrics for linux nodes it wont work for Windows nodes In a mixed node EKS cluster with Windows nodes when you use the stable Prometheus helm chart https github com prometheus community helm charts you will see failed pods on the Windows nodes as this exporter is not intended for Windows You will need to treat the Windows worker pool separate and instead install the Windows exporter https github com prometheus community windows exporter on the Windows worker node group In order to setup Prometheus monitoring for Windows nodes you need to download and install the WMI exporter on the Windows server itself and then setup the targets inside the scrape configuration of the Prometheus configuration file The releases page https github com prometheus community windows exporter releases provides all available msi installers with respective feature sets and bug fixes The installer will setup the windows exporter as a Windows service as well as create an exception in the Windows firewall If the installer is run without any parameters the exporter will run with default settings for enabled collectors ports etc You can check out the scheduling best practices section of this guide which suggests the use of taints tolerations or RuntimeClass to selectively deploy node exporter only to linux nodes while the Windows exporter is installed on Windows nodes as you bootstrap the node or using a configuration management tool of your choice example chef Ansible SSM etc Note that unlike the linux nodes where the node exporter is installed as a daemonset on Windows nodes the WMI exporter is installed on the host itself The exporter will export metrics such as the CPU usage the memory and the disk I O usage and can also be used to monitor IIS sites and applications the network interfaces and services The windows exporter will expose all metrics from enabled collectors by default This is the recommended way to collect metrics to avoid errors However for advanced use the windows exporter can be passed an optional list of collectors to filter metrics The collect parameter in the Prometheus configuration lets you do that The default install steps for Windows include downloading and starting the exporter as a service during the bootstrapping process with arguments such as the collectors you want to filter powershell Powershell Invoke WebRequest https github com prometheus community windows exporter releases download v0 13 0 windows exporter 0 13 0 amd64 msi OutFile DOWNLOADPATH msiexec i DOWNLOADPATH ENABLED COLLECTORS cpu cs logical disk net os system container memory By default the metrics can be scraped at the metrics endpoint on port 9182 At this point Prometheus can consume the metrics by adding the following scrape config to the Prometheus configuration yaml scrape configs job name prometheus static configs targets localhost 9090 job name wmi exporter scrape interval 10s static configs targets windows node1 ip 9182 windows node2 ip 9182 Prometheus configuration is reloaded using bash ps aux grep prometheus kill HUP PID A better and recommended way to add targets is to use a Custom Resource Definition called ServiceMonitor which comes as part of the Prometheus operator https github com prometheus operator kube prometheus releases that provides the definition for a ServiceMonitor Object and a controller that will activate the ServiceMonitors we define and automatically build the required Prometheus configuration The ServiceMonitor which declaratively specifies how groups of Kubernetes services should be monitored is used to define an application you wish to scrape metrics from within Kubernetes Within the ServiceMonitor we specify the Kubernetes labels that the operator can use to identify the Kubernetes Service which in turn identifies the Pods that we wish to monitor In order to leverage the ServiceMonitor create an Endpoint object pointing to specific Windows targets a headless service and a ServiceMontor for the Windows nodes yaml apiVersion v1 kind Endpoints metadata labels k8s app wmiexporter name wmiexporter namespace kube system subsets addresses ip NODE ONE IP targetRef kind Node name NODE ONE NAME ip NODE TWO IP targetRef kind Node name NODE TWO NAME ip NODE THREE IP targetRef kind Node name NODE THREE NAME ports name http metrics port 9182 protocol TCP apiVersion v1 kind Service Headless Service metadata labels k8s app wmiexporter name wmiexporter namespace kube system spec clusterIP None ports name http metrics port 9182 protocol TCP targetPort 9182 sessionAffinity None type ClusterIP apiVersion monitoring coreos com v1 kind ServiceMonitor Custom ServiceMonitor Object metadata labels k8s app wmiexporter name wmiexporter namespace monitoring spec endpoints interval 30s port http metrics jobLabel k8s app namespaceSelector matchNames kube system selector matchLabels k8s app wmiexporter For more details on the operator and the usage of ServiceMonitor checkout the official operator https github com prometheus operator kube prometheus documentation Note that Prometheus does support dynamic target discovery using many service discovery https prometheus io blog 2015 06 01 advanced service discovery options |
eks Prometheus AlertsManager AlertsManager PromQL exclude true search | ---
search:
exclude: true
---
# 모니터링
프로메테우스(Prometheus)는, [CNCF 졸업 프로젝트](https://www.cncf.io/projects/)로서 쿠버네티스에 기본적으로 통합되는 가장 인기 있는 모니터링 시스템입니다. 프로메테우스는 컨테이너, 파드, 노드 및 클러스터와 관련된 메트릭을 수집합니다. 또한 프로메테우스는 AlertsManager를 활용합니다. AlertsManager를 사용하면 클러스터에서 문제가 발생할 경우 경고를 프로그래밍하여 경고할 수 있습니다. 프로메테우스는 지표 데이터를 지표 이름 및 키/값 쌍으로 식별되는 시계열 데이터로 저장합니다. 프로메테우스에는 프로메테우스 쿼리 언어의 줄임말인 PromQL이라는 언어를 사용하여 쿼리하는 방법이 포함되어 있습니다.
프로메테우스 메트릭 수집의 상위 수준 아키텍처는 다음과 같습니다.
![프로메테우스 메트릭 컬렉션](./images/prom.png)
프로메테우스는 풀 메커니즘을 사용하고 익스포터(Exporter)를 사용하여 타겟에서 메트릭을 스크랩하고 [kube state metrics](https://github.com/kubernetes/kube-state-metrics)를 사용하여 쿠버네티스 API에서 메트릭을 스크랩합니다. 즉, 애플리케이션과 서비스는 프로메테우스 형식의 메트릭이 포함된 HTTP(S) 엔드포인트를 노출해야 합니다. 그러면 프로메테우스는 구성에 따라 주기적으로 이런 HTTP(S) 엔드포인트에서 메트릭을 가져옵니다.
익스포터를 사용하면 타사 지표를 프로메테우스 형식의 지표로 사용할 수 있습니다. 프로메테우스 익스포터는 일반적으로 각 노드에 배포됩니다. 익스포터 전체 목록은 프로메테우스 [익스포터 문서](https://prometheus.io/docs/instrumenting/exporters/)를 참조하십시오. [node exporter](https://github.com/prometheus/node_exporter)는 Linux 노드 용 호스트 하드웨어 및 OS 메트릭을 내보내는 데 적합하지만 윈도우 노드에서는 작동하지 않습니다.
**윈도우 노드가 있는 혼합 노드 EKS 클러스터**에서 안정적인 [프로메테우스 헬름 차트](https://github.com/prometheus-community/helm-charts)를 사용하면 윈도우 노드에 장애가 발생한 파드가 표시됩니다. 이 익스포터는 윈도우용이 아니기 때문입니다. 윈도우 작업자 풀을 별도로 처리하고 대신 윈도우 워커 노드 그룹에 [윈도우 익스포터](https://github.com/prometheus-community/windows_exporter)를 설치해야 합니다.
윈도우 노드에 대해 프로메테우스 모니터링을 설정하려면 윈도우 서버 자체에 WMI 익스포터를 다운로드하여 설치한 다음 프로메테우스 구성 파일의 스크랩 구성 내에서 대상을 설정해야 합니다.
[릴리스 페이지](https://github.com/prometheus-community/windows_exporter/releases)는 사용 가능한 모든.msi 설치 프로그램을 각 기능 세트 및 버그 수정과 함께 제공합니다. 설치 프로그램은 windows_exporter를 윈도우 서비스로 설정하고 윈도우 방화벽에서 예외를 생성합니다. 파라미터 없이 설치 프로그램을 실행하는 경우 익스포터는 활성화된 컬렉터, 포트 등에 대한 기본 설정으로 실행됩니다.
이 가이드의 **스케줄링 모범 사례** 섹션은 테인트/톨러레이션 또는 RuntimeClass를 사용하여 노드 익스포터를 Linux 노드에만 선택적으로 배포하는 방법을 제안하는 반면, 윈도우 익스포터는 노드를 부트스트랩하거나 원하는 구성 관리 도구(예: chef, Ansible, SSM 등)를 사용하여 노드 익스포터를 설치하도록 제안합니다.
참고로, 노드 익스포터가 데몬셋으로 설치되는 Linux 노드와 달리 윈도우 노드에서는 WMI 익스포터가 호스트 자체에 설치됩니다. 익스포터는 CPU 사용량, 메모리 및 디스크 I/O 사용량과 같은 메트릭을 내보내고 IIS 사이트 및 응용 프로그램, 네트워크 인터페이스 및 서비스를 모니터링하는 데에도 사용할 수 있습니다.
windows_exporter는 기본적으로 활성화된 컬렉터의 모든 메트릭을 노출합니다. 오류를 방지하기 위해 지표를 수집하는 데 권장되는 방법입니다. 하지만 고급 사용을 위해 windows_exporter에 선택적 수집기 목록을 전달하여 메트릭을 필터링할 수 있습니다.프로메테우스 구성의 collect[] 파라미터를 사용하면 이 작업을 수행할 수 있습니다.
윈도우의 기본 설치 단계에는 부트스트랩 프로세스 중에 필터링하려는 컬렉터와 같은 인수를 사용하여 익스포터를 서비스로 다운로드하고 시작하는 작업이 포함됩니다.
```powershell
> Powershell Invoke-WebRequest https://github.com/prometheus-community/windows_exporter/releases/download/v0.13.0/windows_exporter-0.13.0-amd64.msi -OutFile <DOWNLOADPATH>
> msiexec /i <DOWNLOADPATH> ENABLED_COLLECTORS="cpu,cs,logical_disk,net,os,system,container,memory"
```
기본적으로 메트릭은 포트 9182의 /metrics 엔드포인트에서 스크랩할 수 있습니다.
이제 프로메테우스는 다음 scrape_config를 프로메테우스 구성에 추가하여 메트릭을 사용할 수 있습니다.
```yaml
scrape_configs:
- job_name: "prometheus"
static_configs:
- targets: ['localhost:9090']
...
- job_name: "wmi_exporter"
scrape_interval: 10s
static_configs:
- targets: ['<windows-node1-ip>:9182', '<windows-node2-ip>:9182', ...]
```
프로메테우스 구성을 다음과 같이 다시 로드합니다.
```bash
> ps aux | grep prometheus
> kill HUP <PID>
```
대상을 추가하는 더 좋고 권장되는 방법은 ServiceMonitor라는 사용자 지정 리소스 정의를 사용하는 것입니다. 이 정의는 ServiceMonitor 개체에 대한 정의와 우리가 정의한 ServiceMonitor를 활성화하고 필요한 프로메테우스 구성을 자동으로 빌드하는 컨트롤러를 제공하는 [Prometheus 운영자](https://github.com/prometheus-operator/kube-prometheus/releases)의 일부로 제공됩니다.
쿠버네티스 서비스 그룹을 모니터링하는 방법을 선언적으로 지정하는 ServiceMonitor는 쿠버네티스 내에서 메트릭을 스크랩하려는 애플리케이션을 정의하는 데 사용됩니다.ServiceMonitor 내에서 운영자가 쿠버네티스 서비스를 식별하는 데 사용할 수 있는 쿠버네티스 레이블을 지정합니다. 쿠버네티스 서비스는 쿠버네티스 서비스를 식별하고, 쿠버네티스 서비스는 다시 우리가 모니터링하고자 하는 파드를 식별합니다.
ServiceMonitor를 활용하려면 특정 윈도우 대상을 가리키는 엔드포인트 객체, 윈도우 노드용 헤드리스 서비스 및 ServiceMontor를 생성해야 합니다.
```yaml
apiVersion: v1
kind: Endpoints
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: kube-system
subsets:
- addresses:
- ip: NODE-ONE-IP
targetRef:
kind: Node
name: NODE-ONE-NAME
- ip: NODE-TWO-IP
targetRef:
kind: Node
name: NODE-TWO-NAME
- ip: NODE-THREE-IP
targetRef:
kind: Node
name: NODE-THREE-NAME
ports:
- name: http-metrics
port: 9182
protocol: TCP
---
apiVersion: v1
kind: Service ##Headless Service
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: kube-system
spec:
clusterIP: None
ports:
- name: http-metrics
port: 9182
protocol: TCP
targetPort: 9182
sessionAffinity: None
type: ClusterIP
---
apiVersion: monitoring.coreos.com/v1
kind: ServiceMonitor ##Custom ServiceMonitor Object
metadata:
labels:
k8s-app: wmiexporter
name: wmiexporter
namespace: monitoring
spec:
endpoints:
- interval: 30s
port: http-metrics
jobLabel: k8s-app
namespaceSelector:
matchNames:
- kube-system
selector:
matchLabels:
k8s-app: wmiexporter
```
운영자 및 ServiceMonitor 사용에 대한 자세한 내용은 공식 [오퍼레이터](https://github.com/prometheus-operator/kube-prometheus) 설명서를 참조하십시오. 참고로 프로메테우스는 다양한 [서비스 디스커버리](https://prometheus.io/blog/2015/06/01/advanced-service-discovery/) 옵션을 사용한 동적 타겟 디스커버리를 지원합니다.
| eks | search exclude true Prometheus CNCF https www cncf io projects AlertsManager AlertsManager PromQL images prom png Exporter kube state metrics https github com kubernetes kube state metrics API HTTP S HTTP S https prometheus io docs instrumenting exporters node exporter https github com prometheus node exporter Linux OS EKS https github com prometheus community helm charts https github com prometheus community windows exporter WMI https github com prometheus community windows exporter releases msi windows exporter RuntimeClass Linux chef Ansible SSM Linux WMI CPU I O IIS windows exporter windows exporter collect powershell Powershell Invoke WebRequest https github com prometheus community windows exporter releases download v0 13 0 windows exporter 0 13 0 amd64 msi OutFile DOWNLOADPATH msiexec i DOWNLOADPATH ENABLED COLLECTORS cpu cs logical disk net os system container memory 9182 metrics scrape config yaml scrape configs job name prometheus static configs targets localhost 9090 job name wmi exporter scrape interval 10s static configs targets windows node1 ip 9182 windows node2 ip 9182 bash ps aux grep prometheus kill HUP PID ServiceMonitor ServiceMonitor ServiceMonitor Prometheus https github com prometheus operator kube prometheus releases ServiceMonitor ServiceMonitor ServiceMonitor ServiceMontor yaml apiVersion v1 kind Endpoints metadata labels k8s app wmiexporter name wmiexporter namespace kube system subsets addresses ip NODE ONE IP targetRef kind Node name NODE ONE NAME ip NODE TWO IP targetRef kind Node name NODE TWO NAME ip NODE THREE IP targetRef kind Node name NODE THREE NAME ports name http metrics port 9182 protocol TCP apiVersion v1 kind Service Headless Service metadata labels k8s app wmiexporter name wmiexporter namespace kube system spec clusterIP None ports name http metrics port 9182 protocol TCP targetPort 9182 sessionAffinity None type ClusterIP apiVersion monitoring coreos com v1 kind ServiceMonitor Custom ServiceMonitor Object metadata labels k8s app wmiexporter name wmiexporter namespace monitoring spec endpoints interval 30s port http metrics jobLabel k8s app namespaceSelector matchNames kube system selector matchLabels k8s app wmiexporter ServiceMonitor https github com prometheus operator kube prometheus https prometheus io blog 2015 06 01 advanced service discovery |
eks Definition Performance Efficiency Pillar The performance efficiency pillar focuses on the efficient use of computing resources to meet requirements and how to maintain that efficiency as demand changes and technologies evolve This section provides in depth best practices guidance for architecting for performance efficiency on AWS Performance efficiency for EKS containers is composed of three areas To ensure the efficient use of EKS container services you should gather data on all aspects of the architecture from the high level design to the selection of EKS resource types By reviewing your choices on a regular basis you ensure that you are taking advantage of the continually evolving Amazon EKS and Container services Monitoring will ensure that you are aware of any deviance from expected performance so you can take action on it | # Performance Efficiency Pillar
The performance efficiency pillar focuses on the efficient use of computing resources to meet requirements and how to maintain that efficiency as demand changes and technologies evolve. This section provides in-depth, best practices guidance for architecting for performance efficiency on AWS.
## Definition
To ensure the efficient use of EKS container services, you should gather data on all aspects of the architecture, from the high-level design to the selection of EKS resource types. By reviewing your choices on a regular basis, you ensure that you are taking advantage of the continually evolving Amazon EKS and Container services. Monitoring will ensure that you are aware of any deviance from expected performance so you can take action on it.
Performance efficiency for EKS containers is composed of three areas:
- Optimize your container
- Resource Management
- Scalability Management
## Best Practices
### Optimize your container
You can run most applications in a Docker container without too much hassle. There are a number of things that you need to do to ensure it's running effectively in a production environment, including streamlining the build process. The following best practices will help you to achieve that.
#### Recommendations
- **Make your container images stateless:** A container created with a Docker image should be ephemeral and immutable. In other words, the container should be disposable and independent, i.e. a new one can be built and put in place with absolutely no configuration changes. Design your containers to be stateless. If you would like to use persistent data, use [volumes](https://docs.docker.com/engine/admin/volumes/volumes/) instead. If you would like to store secrets or sensitive application data used by services, you can use solutions like AWS [Systems Manager](https://aws.amazon.com/systems-manager/)[Parameter Store](https://aws.amazon.com/ec2/systems-manager/parameter-store/) or third-party offerings or open source solutions, such as [HashiCorp Valut](https://www.vaultproject.io/) and [Consul](https://www.consul.io/), for runtime configurations.
- [**Minimal base image**](https://docs.docker.com/develop/develop-images/baseimages/) **:** Start with a small base image. Every other instruction in the Dockerfile builds on top of this image. The smaller the base image, the smaller the resulting image is, and the more quickly it can be downloaded. For example, the [alpine:3.7](https://hub.docker.com/r/library/alpine/tags/) image is 71 MB smaller than the [centos:7](https://hub.docker.com/r/library/centos/tags/) image. You can even use the [scratch](https://hub.docker.com/r/library/scratch/) base image, which is an empty image on which you can build your own runtime environment.
- **Avoid unnecessary packages:** When building a container image, include only the dependencies what your application needs and avoid installing unnecessary packages. For example if your application does not need an SSH server, don't include one. This will reduce complexity, dependencies, file sizes, and build times. To exclude files not relevant to the build use a .dockerignore file.
- [**Use multi-stage build**](https://docs.docker.com/v17.09/engine/userguide/eng-image/multistage-build/#use-multi-stage-builds):Multi-stage builds allow you to build your application in a first "build" container and use the result in another container, while using the same Dockerfile. To expand a bit on that, in multi-stage builds, you use multiple FROM statements in your Dockerfile. Each FROM instruction can use a different base, and each of them begins a new stage of the build. You can selectively copy artifacts from one stage to another, leaving behind everything you don't want in the final image. This method drastically reduces the size of your final image, without struggling to reduce the number of intermediate layers and files.
- **Minimize number of layers:** Each instruction in the Dockerfile adds an extra layer to the Docker image. The number of instructions and layers should be kept to a minimum as this affects build performance and time. For example, the first instruction below will create multiple layers, whereas the second instruction by using &&(chaining) we reduced the number of layers, which will help provide better performance. The is the best way to reduce the number of layers that will be created in your Dockerfile.
-
```
RUN apt-get -y update
RUN apt-get install -y python
RUN apt-get -y update && apt-get install -y python
```
- **Properly tag your images:** When building images, always tag them with useful and meaningful tags. This is a good way to organize and document metadata describing an image, for example, by including a unique counter like build id from a CI server (e.g. CodeBuild or Jenkins) to help with identifying the correct image. The tag latest is used by default if you do not provide one in your Docker commands. We recommend not to use the automatically created latest tag, because by using this tag you'll automatically be running future major releases, which could include breaking changes for your application. The best practice is to avoid the latest tag and instead use the unique digest created by your CI server.
- **Use** [**Build Cache**](https://docs.docker.com/develop/develop-images/dockerfile_best-practices/) **to improve build speed** : The cache allows you to take advantage of existing cached images, rather than building each image from scratch. For example, you should add the source code of your application as late as possible in your Dockerfile so that the base image and your application's dependencies get cached and aren't rebuilt on every build. To reuse already cached images, By default in Amazon EKS, the kubelet will try to pull each image from the specified registry. However, if the imagePullPolicy property of the container is set to IfNotPresent or Never, then a local image is used (preferentially or exclusively, respectively).
- **Image Security :** Using public images may be a great way to start working on containers and deploying it to Kubernetes. However, using them in production can come with a set of challenges. Especially when it comes to security. Ensure to follow the best practices for packaging and distributing the containers/applications. For example, don't build your containers with passwords baked in also you might need to control what's inside them. Recommend to use private repository such as [Amazon ECR](https://aws.amazon.com/ecr/) and leverage the in-built [image scanning](https://docs.aws.amazon.com/AmazonECR/latest/userguide/image-scanning.html) feature to identify software vulnerabilities in your container images.
- **Right size your containers:** As you develop and run applications in containers, there are a few key areas to consider. How you size containers and manage your application deployments can negatively impact the end-user experience of services that you provide. To help you succeed, the following best practices will help you right size your containers. After you determine the number of resources required for your application, you should set requests and limits Kubernetes to ensure that your applications are running correctly.
*(a) Perform testing of the application*: to gather vital statistics and other performance Based upon this data you can work out the optimal configuration, in terms of memory and CPU, for your container. Vital statistics such as : __*CPU, Latency, I/O, Memory usage, Network*__ . Determine expected, mean, and peak container memory and CPU usage by doing a separate load test if necessary. Also consider all the processes that might potentially run in parallel in the container.
Recommend to use [CloudWatch Container insights](https://aws.amazon.com/blogs/mt/introducing-container-insights-for-amazon-ecs/) or partner products, which will give you the right information to size containers and the Worker nodes.
*(b)Test services independently:* As many applications depend on each other in a true microservice architecture, you need to test them with a high degree of independence meaning that the services are both able to properly function by themselves, as well as function as part of a cohesive system.
### Resource Management
One of the most common questions that asked in the adoption of Kubernetes is "*What should I put in a Pod?*". For example, a three tier LAMP application container. Should we keep this application in the same pod? Well, this works effectively as a single pod but this is an example of an anti-pattern for Pod creation. There are two reasons for that
***(a)*** If you have both the containers in the same Pod, you are forced to use the same scaling strategy which is not ideal for production environment also you can't effectively manage or constraint resources based on the usage. *E.g:* you might need to scale just the frontend not frontend and backend (MySQL) as a unit also if you would like to increase the resources dedicated just to the backend, you cant just do that.
***(b)*** If you have two separate pods, one for frontend and other for backend. Scaling would be very easy and you get a better reliability.
The above might not work in all the use-cases. In the above example frontend and backend may land in different machines and they will communicate with each other via network, So you need to ask the question "***Will my application work correctly, If they are placed and run on different machines?***" If the answer is a "***no***" may be because of the application design or for some other technical reasons, then grouping of containers in a single pod makes sense. If the answer is "***Yes***" then multiple Pods is the correct approach.
#### Recommendations
+ **Package a single application per container:**
A container works best when a single application runs inside it. This application should have a single parent process. For example, do not run PHP and MySQL in the same container: it's harder to debug, and you can't horizontally scale the PHP container alone. This separation allows you to better tie the lifecycle of the application to that of the container. Your containers should be both stateless and immutable. Stateless means that any state (persistent data of any kind) is stored outside of the container, for example, you can use different kinds of external storage like Persistent disk, Amazon EBS, and Amazon EFS if needed, or managed database like Amazon RDS. Immutable means that a container will not be modified during its life: no updates, no patches, and no configuration changes. To update the application code or apply a patch, you build a new image and deploy it.
+ **Use Labels to Kubernetes Objects:**
[Labels](https://kubernetes.io/docs/concepts/overview/working-with-objects/common-labels/#labels) allow Kubernetes objects to be queried and operated upon in bulk. They can also be used to identify and organize Kubernetes objects into groups. As such defining labels should figure right at the top of any Kubernetes best practices list.
+ **Setting resource request limits:**
Setting request limits is the mechanism used to control the amount of system resources that a container can consume such as CPU and memory. These settings are what the container is guaranteed to get when the container initially starts. If a container requests a resource, container orchestrators such as Kubernetes will only schedule it on a node that can provide that resource. Limits, on the other hand, make sure that a container never goes above a certain value. The container is only allowed to go up to the limit, and then it is restricted.
In the below example Pod manifest, we add a limit of 1.0 CPU and 256 MB of memory
```
apiVersion: v1
kind: Pod
metadata:
name: nginx-pod-webserver
labels:
name: nginx-pod
spec:
containers:
- name: nginx
image: nginx:latest
resources:
limits:
memory: "256Mi"
cpu: "1000m"
requests:
memory: "128Mi"
cpu: "500m"
ports:
- containerPort: 80
```
It's a best practice to define these requests and limits in your pod definitions. If you don't include these values, the scheduler doesn't understand what resources are needed. Without this information, the scheduler might schedule the pod on a node without sufficient resources to provide acceptable application performance.
+ **Limit the number of concurrent disruptions:**
Use _PodDisruptionBudget_, This settings allows you to set a policy on the minimum available and maximum unavailable pods during voluntary eviction events. An example of an eviction would be when perform maintenance on the node or draining a node.
_Example:_ A web frontend might want to ensure that 8 Pods to be available at any given time. In this scenario, an eviction can evict as many pods as it wants, as long as eight are available.
```
apiVersion: policy/v1beta1
kind: PodDisruptionBudget
metadata:
name: frontend-demo
spec:
minAvailable: 8
selector:
matchLabels:
app: frontend
```
**N.B:** You can also specify pod disruption budget as a percentage by using maxAvailable or maxUnavailable parameter.
+ **Use Namespaces:**
Namespaces allows a physical cluster to be shared by multiple teams. A namespace allows to partition created resources into a logically named group. This allows you to set resource quotas per namespace, Role-Based Access Control (RBAC) per namespace, and also network policies per namespace. It gives you soft multitenancy features.
For example, If you have three applications running on a single Amazon EKS cluster accessed by three different teams which requires multiple resource constraints and different levels of QoS each group you could create a namespace per team and give each team a quota on the number of resources that it can utilize, such as CPU and memory.
You can also specify default limits in Kubernetes namespaces level by enabling [LimitRange](https://kubernetes.io/docs/concepts/policy/limit-range/) admission controller. These default limits will constrain the amount of CPU or memory a given Pod can use unless the defaults are explicitly overridden by the Pod's configuration.
+ **Manage Resource Quota:**
Each namespace can be assigned resource quota. Specifying quota allows to restrict how much of cluster resources can be consumed across all resources in a namespace. Resource quota can be defined by a [ResourceQuota](https://kubernetes.io/docs/concepts/policy/resource-quotas/) object. A presence of ResourceQuota object in a namespace ensures that resource quotas are enforced.
+ **Configure Health Checks for Pods:**
Health checks are a simple way to let the system know if an instance of your app is working or not. If an instance of your app is not working, then other services should not access it or send requests to it. Instead, requests should be sent to another instance of the app that is working. The system also should bring your app back to a healthy state. By default, all the running pods have the restart policy set to always which means the kubelet running within a node will automatically restart a pod when the container encounters an error. Health checks extend this capability of kubelet through the concept of [container probes](https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#container-probes).
Kubernetes provides two types of [health checks](https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes/): readiness and liveness probes. For example, consider if one of your applications, which typically runs for long periods of time, transitions to a non-running state and can only recover by being restarted. You can use liveness probes to detect and remedy such situations. Using health checks gives your applications better reliability, and higher uptime.
+ **Advanced Scheduling Techniques:**
Generally, schedulers ensure that pods are placed only on nodes that have sufficient free resources, and across nodes, they try to balance out the resource utilization across nodes, deployments, replicas, and so on. But sometimes you want to control how your pods are scheduled. For example, perhaps you want to ensure that certain pods are only scheduled on nodes with specialized hardware, such as requiring a GPU machine for an ML workload. Or you want to collocate services that communicate frequently.
Kubernetes offers many[advanced scheduling features](https://kubernetes.io/blog/2017/03/advanced-scheduling-in-kubernetes/)and multiple filters/constraints to schedule the pods on the right node. For example, when using Amazon EKS, you can use[taints and tolerations](https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#taints-and-toleations-beta-feature)to restrict what workloads can run on specific nodes. You can also control pod scheduling using [node selectors](https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#nodeselector)and[affinity and anti-affinity](https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#affinity-and-anti-affinity)constructs and even have your own custom scheduler built for this purpose.
#### Scalability Management
Containers are stateless. They are born and when they die, they are not resurrected. There are many techniques that you can leverage on Amazon EKS, not only to scale out your containerized applications but also the Kubernetes worker node.
#### Recommendations
+ On Amazon EKS, you can configure [Horizontal pod autoscaler](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/),which automatically scales the number of pods in a replication controller, deployment, or replica set based on observed CPU utilization (or use[custom metrics](https://git.k8s.io/community/contributors/design-proposals/instrumentation/custom-metrics-api.md)based on application-provided metrics).
+ You can use [Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler) which automatically adjusts the CPU and memory reservations for your pods to help "right size" your applications. This adjustment can improve cluster resource utilization and free up CPU and memory for other pods. This is useful in scenarios like your production database "MongoDB" does not scale the same way as a stateless application frontend, In this scenario you could use VPA to scale up the MongoDB Pod.
+ To enable VPA you need to use Kubernetes metrics server, which is an aggregator of resource usage data in your cluster. It is not deployed by default in Amazon EKS clusters. You need to configure it before [configure VPA](https://docs.aws.amazon.com/eks/latest/userguide/vertical-pod-autoscaler.html) alternatively you can also use Prometheus to provide metrics for the Vertical Pod Autoscaler.
+ While HPA and VPA scale the deployments and pods, [Cluster Autoscaler](https://github.com/kubernetes/autoscaler) will scale-out and scale-in the size of the pool of worker nodes. It adjusts the size of a Kubernetes cluster based on the current utilization. Cluster Autoscaler increases the size of the cluster when there are pods that failed to schedule on any of the current nodes due to insufficient resources or when adding a new node would increase the overall availability of cluster resources. Please follow this [step by step](https://eksworkshop.com/scaling/deploy_ca/) guide to setup Cluster Autoscaler. If you are using Amazon EKS on AWS Fargate, AWS Manages the control plane for you.
Please have a look at the reliability pillar for detailed information.
#### Monitoring
#### Deployment Best Practices
#### Trade-Offs | eks | Performance Efficiency Pillar The performance efficiency pillar focuses on the efficient use of computing resources to meet requirements and how to maintain that efficiency as demand changes and technologies evolve This section provides in depth best practices guidance for architecting for performance efficiency on AWS Definition To ensure the efficient use of EKS container services you should gather data on all aspects of the architecture from the high level design to the selection of EKS resource types By reviewing your choices on a regular basis you ensure that you are taking advantage of the continually evolving Amazon EKS and Container services Monitoring will ensure that you are aware of any deviance from expected performance so you can take action on it Performance efficiency for EKS containers is composed of three areas Optimize your container Resource Management Scalability Management Best Practices Optimize your container You can run most applications in a Docker container without too much hassle There are a number of things that you need to do to ensure it 39 s running effectively in a production environment including streamlining the build process The following best practices will help you to achieve that Recommendations Make your container images stateless A container created with a Docker image should be ephemeral and immutable In other words the container should be disposable and independent i e a new one can be built and put in place with absolutely no configuration changes Design your containers to be stateless If you would like to use persistent data use volumes https docs docker com engine admin volumes volumes instead If you would like to store secrets or sensitive application data used by services you can use solutions like AWS Systems Manager https aws amazon com systems manager Parameter Store https aws amazon com ec2 systems manager parameter store or third party offerings or open source solutions such as HashiCorp Valut https www vaultproject io and Consul https www consul io for runtime configurations Minimal base image https docs docker com develop develop images baseimages Start with a small base image Every other instruction in the Dockerfile builds on top of this image The smaller the base image the smaller the resulting image is and the more quickly it can be downloaded For example the alpine 3 7 https hub docker com r library alpine tags image is 71 MB smaller than the centos 7 https hub docker com r library centos tags image You can even use the scratch https hub docker com r library scratch base image which is an empty image on which you can build your own runtime environment Avoid unnecessary packages When building a container image include only the dependencies what your application needs and avoid installing unnecessary packages For example if your application does not need an SSH server don 39 t include one This will reduce complexity dependencies file sizes and build times To exclude files not relevant to the build use a dockerignore file Use multi stage build https docs docker com v17 09 engine userguide eng image multistage build use multi stage builds Multi stage builds allow you to build your application in a first quot build quot container and use the result in another container while using the same Dockerfile To expand a bit on that in multi stage builds you use multiple FROM statements in your Dockerfile Each FROM instruction can use a different base and each of them begins a new stage of the build You can selectively copy artifacts from one stage to another leaving behind everything you don 39 t want in the final image This method drastically reduces the size of your final image without struggling to reduce the number of intermediate layers and files Minimize number of layers Each instruction in the Dockerfile adds an extra layer to the Docker image The number of instructions and layers should be kept to a minimum as this affects build performance and time For example the first instruction below will create multiple layers whereas the second instruction by using amp amp chaining we reduced the number of layers which will help provide better performance The is the best way to reduce the number of layers that will be created in your Dockerfile RUN apt get y update RUN apt get install y python RUN apt get y update apt get install y python Properly tag your images When building images always tag them with useful and meaningful tags This is a good way to organize and document metadata describing an image for example by including a unique counter like build id from a CI server e g CodeBuild or Jenkins to help with identifying the correct image The tag latest is used by default if you do not provide one in your Docker commands We recommend not to use the automatically created latest tag because by using this tag you 39 ll automatically be running future major releases which could include breaking changes for your application The best practice is to avoid the latest tag and instead use the unique digest created by your CI server Use Build Cache https docs docker com develop develop images dockerfile best practices to improve build speed The cache allows you to take advantage of existing cached images rather than building each image from scratch For example you should add the source code of your application as late as possible in your Dockerfile so that the base image and your application 39 s dependencies get cached and aren 39 t rebuilt on every build To reuse already cached images By default in Amazon EKS the kubelet will try to pull each image from the specified registry However if the imagePullPolicy property of the container is set to IfNotPresent or Never then a local image is used preferentially or exclusively respectively Image Security Using public images may be a great way to start working on containers and deploying it to Kubernetes However using them in production can come with a set of challenges Especially when it comes to security Ensure to follow the best practices for packaging and distributing the containers applications For example don 39 t build your containers with passwords baked in also you might need to control what 39 s inside them Recommend to use private repository such as Amazon ECR https aws amazon com ecr and leverage the in built image scanning https docs aws amazon com AmazonECR latest userguide image scanning html feature to identify software vulnerabilities in your container images Right size your containers As you develop and run applications in containers there are a few key areas to consider How you size containers and manage your application deployments can negatively impact the end user experience of services that you provide To help you succeed the following best practices will help you right size your containers After you determine the number of resources required for your application you should set requests and limits Kubernetes to ensure that your applications are running correctly nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp a Perform testing of the application to gather vital statistics and other performance nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp Based upon this data you can work out the optimal configuration in terms of memory and nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp CPU for your container Vital statistics such as CPU Latency I O Memory usage nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp Network Determine expected mean and peak container memory and CPU usage by nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp doing a separate load test if necessary Also consider all the processes that might nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp potentially run in parallel in the container nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp Recommend to use CloudWatch Container insights https aws amazon com blogs mt introducing container insights for amazon ecs or partner products which will give nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp you the right information to size containers and the Worker nodes nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp b Test services independently As many applications depend on each other in a true nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp microservice architecture you need to test them with a high degree of independence nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp meaning that the services are both able to properly function by themselves as well as nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp function as part of a cohesive system Resource Management One of the most common questions that asked in the adoption of Kubernetes is quot What should I put in a Pod quot For example a three tier LAMP application container Should we keep this application in the same pod Well this works effectively as a single pod but this is an example of an anti pattern for Pod creation There are two reasons for that a If you have both the containers in the same Pod you are forced to use the same scaling strategy which is not ideal for production environment also you can 39 t effectively manage or constraint resources based on the usage E g you might need to scale just the frontend not frontend and backend MySQL as a unit also if you would like to increase the resources dedicated just to the backend you cant just do that b If you have two separate pods one for frontend and other for backend Scaling would be very easy and you get a better reliability The above might not work in all the use cases In the above example frontend and backend may land in different machines and they will communicate with each other via network So you need to ask the question quot Will my application work correctly If they are placed and run on different machines quot If the answer is a quot no quot may be because of the application design or for some other technical reasons then grouping of containers in a single pod makes sense If the answer is quot Yes quot then multiple Pods is the correct approach Recommendations Package a single application per container A container works best when a single application runs inside it This application should have a single parent process For example do not run PHP and MySQL in the same container it 39 s harder to debug and you can 39 t horizontally scale the PHP container alone This separation allows you to better tie the lifecycle of the application to that of the container Your containers should be both stateless and immutable Stateless means that any state persistent data of any kind is stored outside of the container for example you can use different kinds of external storage like Persistent disk Amazon EBS and Amazon EFS if needed or managed database like Amazon RDS Immutable means that a container will not be modified during its life no updates no patches and no configuration changes To update the application code or apply a patch you build a new image and deploy it Use Labels to Kubernetes Objects Labels https kubernetes io docs concepts overview working with objects common labels labels allow Kubernetes objects to be queried and operated upon in bulk They can also be used to identify and organize Kubernetes objects into groups As such defining labels should figure right at the top of any Kubernetes best practices list Setting resource request limits Setting request limits is the mechanism used to control the amount of system resources that a container can consume such as CPU and memory These settings are what the container is guaranteed to get when the container initially starts If a container requests a resource container orchestrators such as Kubernetes will only schedule it on a node that can provide that resource Limits on the other hand make sure that a container never goes above a certain value The container is only allowed to go up to the limit and then it is restricted nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp In the below example Pod manifest we add a limit of 1 0 CPU and 256 MB of memory apiVersion v1 kind Pod metadata name nginx pod webserver labels name nginx pod spec containers name nginx image nginx latest resources limits memory 256Mi cpu 1000m requests memory 128Mi cpu 500m ports containerPort 80 nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp It 39 s a best practice to define these requests and limits in your pod definitions If you don 39 t nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp include these values the scheduler doesn 39 t understand what resources are needed nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp Without this information the scheduler might schedule the pod on a node without nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp sufficient resources to provide acceptable application performance Limit the number of concurrent disruptions Use PodDisruptionBudget This settings allows you to set a policy on the minimum available and maximum unavailable pods during voluntary eviction events An example of an eviction would be when perform maintenance on the node or draining a node nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp Example A web frontend might want to ensure that 8 Pods to be available at any nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp given time In this scenario an eviction can evict as many pods as it wants as long as nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp eight are available apiVersion policy v1beta1 kind PodDisruptionBudget metadata name frontend demo spec minAvailable 8 selector matchLabels app frontend nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp N B You can also specify pod disruption budget as a percentage by using maxAvailable nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp or maxUnavailable parameter Use Namespaces Namespaces allows a physical cluster to be shared by multiple teams A namespace allows to partition created resources into a logically named group This allows you to set resource quotas per namespace Role Based Access Control RBAC per namespace and also network policies per namespace It gives you soft multitenancy features nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp For example If you have three applications running on a single Amazon EKS cluster nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp accessed by three different teams which requires multiple resource constraints and nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp different levels of QoS each group you could create a namespace per team and give each nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp team a quota on the number of resources that it can utilize such as CPU and memory nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp You can also specify default limits in Kubernetes namespaces level by enabling nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp LimitRange https kubernetes io docs concepts policy limit range admission controller These default limits will constrain the amount of CPU nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp or memory a given Pod can use unless the defaults are explicitly overridden by the Pod 39 s nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp nbsp configuration Manage Resource Quota Each namespace can be assigned resource quota Specifying quota allows to restrict how much of cluster resources can be consumed across all resources in a namespace Resource quota can be defined by a ResourceQuota https kubernetes io docs concepts policy resource quotas object A presence of ResourceQuota object in a namespace ensures that resource quotas are enforced Configure Health Checks for Pods Health checks are a simple way to let the system know if an instance of your app is working or not If an instance of your app is not working then other services should not access it or send requests to it Instead requests should be sent to another instance of the app that is working The system also should bring your app back to a healthy state By default all the running pods have the restart policy set to always which means the kubelet running within a node will automatically restart a pod when the container encounters an error Health checks extend this capability of kubelet through the concept of container probes https kubernetes io docs concepts workloads pods pod lifecycle container probes Kubernetes provides two types of health checks https kubernetes io docs tasks configure pod container configure liveness readiness startup probes readiness and liveness probes For example consider if one of your applications which typically runs for long periods of time transitions to a non running state and can only recover by being restarted You can use liveness probes to detect and remedy such situations Using health checks gives your applications better reliability and higher uptime Advanced Scheduling Techniques Generally schedulers ensure that pods are placed only on nodes that have sufficient free resources and across nodes they try to balance out the resource utilization across nodes deployments replicas and so on But sometimes you want to control how your pods are scheduled For example perhaps you want to ensure that certain pods are only scheduled on nodes with specialized hardware such as requiring a GPU machine for an ML workload Or you want to collocate services that communicate frequently Kubernetes offers many advanced scheduling features https kubernetes io blog 2017 03 advanced scheduling in kubernetes and multiple filters constraints to schedule the pods on the right node For example when using Amazon EKS you can use taints and tolerations https kubernetes io docs concepts configuration assign pod node taints and toleations beta feature to restrict what workloads can run on specific nodes You can also control pod scheduling using node selectors https kubernetes io docs concepts configuration assign pod node nodeselector and affinity and anti affinity https kubernetes io docs concepts configuration assign pod node affinity and anti affinity constructs and even have your own custom scheduler built for this purpose Scalability Management Containers are stateless They are born and when they die they are not resurrected There are many techniques that you can leverage on Amazon EKS not only to scale out your containerized applications but also the Kubernetes worker node Recommendations On Amazon EKS you can configure Horizontal pod autoscaler https kubernetes io docs tasks run application horizontal pod autoscale which automatically scales the number of pods in a replication controller deployment or replica set based on observed CPU utilization or use custom metrics https git k8s io community contributors design proposals instrumentation custom metrics api md based on application provided metrics You can use Vertical Pod Autoscaler https github com kubernetes autoscaler tree master vertical pod autoscaler which automatically adjusts the CPU and memory reservations for your pods to help quot right size quot your applications This adjustment can improve cluster resource utilization and free up CPU and memory for other pods This is useful in scenarios like your production database quot MongoDB quot does not scale the same way as a stateless application frontend In this scenario you could use VPA to scale up the MongoDB Pod To enable VPA you need to use Kubernetes metrics server which is an aggregator of resource usage data in your cluster It is not deployed by default in Amazon EKS clusters You need to configure it before configure VPA https docs aws amazon com eks latest userguide vertical pod autoscaler html alternatively you can also use Prometheus to provide metrics for the Vertical Pod Autoscaler While HPA and VPA scale the deployments and pods Cluster Autoscaler https github com kubernetes autoscaler will scale out and scale in the size of the pool of worker nodes It adjusts the size of a Kubernetes cluster based on the current utilization Cluster Autoscaler increases the size of the cluster when there are pods that failed to schedule on any of the current nodes due to insufficient resources or when adding a new node would increase the overall availability of cluster resources Please follow this step by step https eksworkshop com scaling deploy ca guide to setup Cluster Autoscaler If you are using Amazon EKS on AWS Fargate AWS Manages the control plane for you Please have a look at the reliability pillar for detailed information Monitoring Deployment Best Practices Trade Offs |
external secrets This is basicially a zero configuration authentication method that inherits the credentials from the runtime environment using the Controller s Pod Identity Note If you are using Parameter Store replace with in all examples below AWS Authentication | ## AWS Authentication
### Controller's Pod Identity
![Pod Identity Authentication](../pictures/diagrams-provider-aws-auth-pod-identity.png)
Note: If you are using Parameter Store replace `service: SecretsManager` with `service: ParameterStore` in all examples below.
This is basicially a zero-configuration authentication method that inherits the credentials from the runtime environment using the [aws sdk default credential chain](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/credentials.html#credentials-default).
You can attach a role to the pod using [IRSA](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html), [kiam](https://github.com/uswitch/kiam) or [kube2iam](https://github.com/jtblin/kube2iam). When no other authentication method is configured in the `Kind=Secretstore` this role is used to make all API calls against AWS Secrets Manager or SSM Parameter Store.
Based on the Pod's identity you can do a `sts:assumeRole` before fetching the secrets to limit access to certain keys in your provider. This is optional.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: team-b-store
spec:
provider:
aws:
service: SecretsManager
region: eu-central-1
# optional: do a sts:assumeRole before fetching secrets
role: team-b
```
### Access Key ID & Secret Access Key
![SecretRef](../pictures/diagrams-provider-aws-auth-secret-ref.png)
You can store Access Key ID & Secret Access Key in a `Kind=Secret` and reference it from a SecretStore.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: team-b-store
spec:
provider:
aws:
service: SecretsManager
region: eu-central-1
# optional: assume role before fetching secrets
role: team-b
auth:
secretRef:
accessKeyIDSecretRef:
name: awssm-secret
key: access-key
secretAccessKeySecretRef:
name: awssm-secret
key: secret-access-key
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `accessKeyIDSecretRef`, `secretAccessKeySecretRef` with the namespaces where the secrets reside.
### EKS Service Account credentials
![Service Account](../pictures/diagrams-provider-aws-auth-service-account.png)
This feature lets you use short-lived service account tokens to authenticate with AWS.
You must have [Service Account Volume Projection](https://kubernetes.io/docs/tasks/configure-pod-container/configure-service-account/#service-account-token-volume-projection) enabled - it is by default on EKS. See [EKS guide](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts-technical-overview.html) on how to set up IAM roles for service accounts.
The big advantage of this approach is that ESO runs without any credentials.
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
annotations:
eks.amazonaws.com/role-arn: arn:aws:iam::123456789012:role/team-a
name: my-serviceaccount
namespace: default
```
Reference the service account from above in the Secret Store:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secretstore-sample
spec:
provider:
aws:
service: SecretsManager
region: eu-central-1
auth:
jwt:
serviceAccountRef:
name: my-serviceaccount
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `serviceAccountRef` with the namespace where the service account resides.
## Custom Endpoints
You can define custom AWS endpoints if you want to use regional, vpc or custom endpoints. See List of endpoints for [Secrets Manager](https://docs.aws.amazon.com/general/latest/gr/asm.html), [Secure Systems Manager](https://docs.aws.amazon.com/general/latest/gr/ssm.html) and [Security Token Service](https://docs.aws.amazon.com/general/latest/gr/sts.html).
Use the following environment variables to point the controller to your custom endpoints. Note: All resources managed by this controller are affected.
| ENV VAR | DESCRIPTION |
| --------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| AWS_SECRETSMANAGER_ENDPOINT | Endpoint for the Secrets Manager Service. The controller uses this endpoint to fetch secrets from AWS Secrets Manager. |
| AWS_SSM_ENDPOINT | Endpoint for the AWS Secure Systems Manager. The controller uses this endpoint to fetch secrets from SSM Parameter Store. |
| AWS_STS_ENDPOINT | Endpoint for the Security Token Service. The controller uses this endpoint when creating a session and when doing `assumeRole` or `assumeRoleWithWebIdentity` calls. | | external secrets | AWS Authentication Controller s Pod Identity Pod Identity Authentication pictures diagrams provider aws auth pod identity png Note If you are using Parameter Store replace service SecretsManager with service ParameterStore in all examples below This is basicially a zero configuration authentication method that inherits the credentials from the runtime environment using the aws sdk default credential chain https docs aws amazon com sdk for java v1 developer guide credentials html credentials default You can attach a role to the pod using IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html kiam https github com uswitch kiam or kube2iam https github com jtblin kube2iam When no other authentication method is configured in the Kind Secretstore this role is used to make all API calls against AWS Secrets Manager or SSM Parameter Store Based on the Pod s identity you can do a sts assumeRole before fetching the secrets to limit access to certain keys in your provider This is optional yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name team b store spec provider aws service SecretsManager region eu central 1 optional do a sts assumeRole before fetching secrets role team b Access Key ID Secret Access Key SecretRef pictures diagrams provider aws auth secret ref png You can store Access Key ID Secret Access Key in a Kind Secret and reference it from a SecretStore yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name team b store spec provider aws service SecretsManager region eu central 1 optional assume role before fetching secrets role team b auth secretRef accessKeyIDSecretRef name awssm secret key access key secretAccessKeySecretRef name awssm secret key secret access key NOTE In case of a ClusterSecretStore Be sure to provide namespace in accessKeyIDSecretRef secretAccessKeySecretRef with the namespaces where the secrets reside EKS Service Account credentials Service Account pictures diagrams provider aws auth service account png This feature lets you use short lived service account tokens to authenticate with AWS You must have Service Account Volume Projection https kubernetes io docs tasks configure pod container configure service account service account token volume projection enabled it is by default on EKS See EKS guide https docs aws amazon com eks latest userguide iam roles for service accounts technical overview html on how to set up IAM roles for service accounts The big advantage of this approach is that ESO runs without any credentials yaml apiVersion v1 kind ServiceAccount metadata annotations eks amazonaws com role arn arn aws iam 123456789012 role team a name my serviceaccount namespace default Reference the service account from above in the Secret Store yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secretstore sample spec provider aws service SecretsManager region eu central 1 auth jwt serviceAccountRef name my serviceaccount NOTE In case of a ClusterSecretStore Be sure to provide namespace for serviceAccountRef with the namespace where the service account resides Custom Endpoints You can define custom AWS endpoints if you want to use regional vpc or custom endpoints See List of endpoints for Secrets Manager https docs aws amazon com general latest gr asm html Secure Systems Manager https docs aws amazon com general latest gr ssm html and Security Token Service https docs aws amazon com general latest gr sts html Use the following environment variables to point the controller to your custom endpoints Note All resources managed by this controller are affected ENV VAR DESCRIPTION AWS SECRETSMANAGER ENDPOINT Endpoint for the Secrets Manager Service The controller uses this endpoint to fetch secrets from AWS Secrets Manager AWS SSM ENDPOINT Endpoint for the AWS Secure Systems Manager The controller uses this endpoint to fetch secrets from SSM Parameter Store AWS STS ENDPOINT Endpoint for the Security Token Service The controller uses this endpoint when creating a session and when doing assumeRole or assumeRoleWithWebIdentity calls |
external secrets We have a to track progress for our road towards GA should be opened in that repository Project Management The Code our TODOs and Documentation is maintained on Features bugs and any issues regarding the documentation should be filed as in Issues All Issues | ## Project Management
The Code, our TODOs and Documentation is maintained on
[GitHub](https://github.com/external-secrets/external-secrets). All Issues
should be opened in that repository.
We have a [Roadmap](roadmap.md) to track progress for our road towards GA.
## Issues
Features, bugs and any issues regarding the documentation should be filed as
[GitHub Issue](https://github.com/external-secrets/external-secrets/issues) in
our repository. We use labels like `kind/feature`, `kind/bug`, `area/aws` to
organize the issues. Issues labeled `good first issue` and `help wanted` are
especially good for a first contribution. If you want to pick up an issue just
leave a comment.
## Submitting a Pull Request
This project uses the well-known pull request process from GitHub. To submit a
pull request, fork the repository and push any changes to a branch on the copy,
from there a pull request can be made in the main repo. Merging a pull request
requires the following steps to be completed before the pull request will
be merged:
* ideally, there is an issue that documents the problem or feature in depth.
* code must have a reasonable amount of test coverage
* tests must pass
* PR needs be reviewed and approved
Once these steps are completed the PR will be merged by a code owner.
We're using the pull request `assignee` feature to track who is responsible
for the lifecycle of the PR: review, merging, ping on inactivity, close.
We close pull requests or issues if there is no response from the author for
a period of time. Feel free to reopen if you want to get back on it.
### Triggering e2e tests
We have an extensive set of e2e tests that test the integration with *real* cloud provider APIs.
Maintainers must trigger these kind of tests manually for PRs that come from forked repositories. These tests run inside a `kind` cluster in the GitHub Actions runner:
```
/ok-to-test sha=<full_commit_hash>
```
Examples:
```
/ok-to-test sha=b8ca0040200a7a05d57048d86a972fdf833b8c9b
```
#### Executing e2e tests locally
You have to prepare your shell environment with the necessary variables so the e2e test
runner knows what credentials to use. See `e2e/run.sh` for the variables that are passed in.
If you e.g. want to test AWS integration make sure set all `AWS_*` variables mentioned
in that file.
Use [ginkgo labels](https://onsi.github.io/ginkgo/#spec-labels) to select the tests
you want to execute. You have to specify `!managed` to ensure that you do not
run managed tests.
```
make test.e2e GINKGO_LABELS='gcp&&!managed'
```
#### Managed Kubernetes e2e tests
There's another suite of e2e tests that integrate with managed Kubernetes offerings.
They create real infrastructure at a cloud provider and deploy the controller
into that environment.
This is necessary to test the authentication integration
([GCP Workload Identity](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity),
[EKS IRSA](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html)...).
These tests are time intensive (~20-45min) and must be triggered manually by
a maintainer when a particular provider or authentication mechanism was changed:
```
/ok-to-test-managed sha=xxxxxx provider=aws
# or
/ok-to-test-managed sha=xxxxxx provider=gcp
# or
/ok-to-test-managed sha=xxxxxx provider=azure
```
Both tests can run in parallel. Once started they add a dynamic GitHub check `integration-managed-(gcp|aws|azure)` to the PR that triggered the test.
### Executing Managed Kubernetes e2e tests locally
You have to prepare your shell environment with the necessary variables so the e2e
test runner knows what credentials to use. See `.github/workflows/e2e-managed.yml`
for the variables that are passed in. If you e.g. want to test AWS integration make
sure set all variables containing `AWS_*` and `TF_VAR_AWS_*` mentioned in that file.
Then execute `tf.apply.aws` or `tf.apply.gcp` to create the infrastructure.
```
make tf.apply.aws
```
Then run the `managed` testsuite. You will need push permissions to the external-secrets ghcr repository. You can set `IMAGE_NAME` to control which image registry is used to store the controller and e2e test images in.
You also have to setup a proper Kubeconfig so the e2e test pod gets deployed into the managed cluster.
```
aws eks update-kubeconfig --name ${AWS_CLUSTER_NAME}
or
gcloud container clusters get-credentials ${GCP_GKE_CLUSTER} --region europe-west1-b
```
Use [ginkgo labels](https://onsi.github.io/ginkgo/#spec-labels) to select the tests
you want to execute.
```
# you may have to set IMAGE_NAME=docker.io/your-user/external-secrets
make test.e2e.managed GINKGO_LABELS='gcp'
```
## Proposal Process
Before we introduce significant changes to the project we want to gather feedback
from the community to ensure that we progress in the right direction before we
develop and release big changes. Significant changes include for example:
* creating new custom resources
* proposing breaking changes
* changing the behavior of the controller significantly
Please create a document in the `design/` directory based on the template `000-template.md`
and fill in your proposal. Open a pull request in draft mode and request feedback. Once the proposal is accepted and the pull request is merged we can create work packages and proceed with the implementation.
## Release Planning
We have a [GitHub Project Board](https://github.com/orgs/external-secrets/projects/2/views/1) where we organize issues on a high level. We group issues by milestone. Once all issues of a given milestone are closed we should prepare a new feature release. Issues of the next milestone have priority over other issues - but that does not mean that no one is allowed to start working on them.
Issues must be _manually_ added to that board (at least for now, see [GH Roadmap](https://github.com/github/roadmap/issues/286)). Milestones must be assigned manually as well. If no milestone is assigned it is basically a backlog item. It is the responsibility of the maintainers to:
1. assign new issues to the GH Project
2. add a milestone if needed
3. add appropriate labels
If you would like to raise the priority of an issue for whatever reason feel free to comment on the issue or ping a maintainer.
## Support & Questions
Providing support to end users is an important and difficult task.
We have three different channels through which support questions arise:
1. Kubernetes Slack [#external-secrets](https://kubernetes.slack.com/archives/C017BF84G2Y)
2. [GitHub Discussions](https://github.com/external-secrets/external-secrets/discussions)
3. GitHub Issues
We use labels to identify GitHub Issues. Specifically for managing support cases we use the following labels to identify the state a support case is in:
* `triage/needs-information`: Indicates an issue needs more information in order to work on it.
* `triage/not-reproducible`: Indicates an issue can not be reproduced as described.
* `triage/support`: Indicates an issue that is a support question.
## Cutting Releases
The external-secrets project is released on a as-needed basis. Feel free to open a issue to request a release. Details on how to cut a release can be found in the [release](release.md) page. | external secrets | Project Management The Code our TODOs and Documentation is maintained on GitHub https github com external secrets external secrets All Issues should be opened in that repository We have a Roadmap roadmap md to track progress for our road towards GA Issues Features bugs and any issues regarding the documentation should be filed as GitHub Issue https github com external secrets external secrets issues in our repository We use labels like kind feature kind bug area aws to organize the issues Issues labeled good first issue and help wanted are especially good for a first contribution If you want to pick up an issue just leave a comment Submitting a Pull Request This project uses the well known pull request process from GitHub To submit a pull request fork the repository and push any changes to a branch on the copy from there a pull request can be made in the main repo Merging a pull request requires the following steps to be completed before the pull request will be merged ideally there is an issue that documents the problem or feature in depth code must have a reasonable amount of test coverage tests must pass PR needs be reviewed and approved Once these steps are completed the PR will be merged by a code owner We re using the pull request assignee feature to track who is responsible for the lifecycle of the PR review merging ping on inactivity close We close pull requests or issues if there is no response from the author for a period of time Feel free to reopen if you want to get back on it Triggering e2e tests We have an extensive set of e2e tests that test the integration with real cloud provider APIs Maintainers must trigger these kind of tests manually for PRs that come from forked repositories These tests run inside a kind cluster in the GitHub Actions runner ok to test sha full commit hash Examples ok to test sha b8ca0040200a7a05d57048d86a972fdf833b8c9b Executing e2e tests locally You have to prepare your shell environment with the necessary variables so the e2e test runner knows what credentials to use See e2e run sh for the variables that are passed in If you e g want to test AWS integration make sure set all AWS variables mentioned in that file Use ginkgo labels https onsi github io ginkgo spec labels to select the tests you want to execute You have to specify managed to ensure that you do not run managed tests make test e2e GINKGO LABELS gcp managed Managed Kubernetes e2e tests There s another suite of e2e tests that integrate with managed Kubernetes offerings They create real infrastructure at a cloud provider and deploy the controller into that environment This is necessary to test the authentication integration GCP Workload Identity https cloud google com kubernetes engine docs how to workload identity EKS IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html These tests are time intensive 20 45min and must be triggered manually by a maintainer when a particular provider or authentication mechanism was changed ok to test managed sha xxxxxx provider aws or ok to test managed sha xxxxxx provider gcp or ok to test managed sha xxxxxx provider azure Both tests can run in parallel Once started they add a dynamic GitHub check integration managed gcp aws azure to the PR that triggered the test Executing Managed Kubernetes e2e tests locally You have to prepare your shell environment with the necessary variables so the e2e test runner knows what credentials to use See github workflows e2e managed yml for the variables that are passed in If you e g want to test AWS integration make sure set all variables containing AWS and TF VAR AWS mentioned in that file Then execute tf apply aws or tf apply gcp to create the infrastructure make tf apply aws Then run the managed testsuite You will need push permissions to the external secrets ghcr repository You can set IMAGE NAME to control which image registry is used to store the controller and e2e test images in You also have to setup a proper Kubeconfig so the e2e test pod gets deployed into the managed cluster aws eks update kubeconfig name AWS CLUSTER NAME or gcloud container clusters get credentials GCP GKE CLUSTER region europe west1 b Use ginkgo labels https onsi github io ginkgo spec labels to select the tests you want to execute you may have to set IMAGE NAME docker io your user external secrets make test e2e managed GINKGO LABELS gcp Proposal Process Before we introduce significant changes to the project we want to gather feedback from the community to ensure that we progress in the right direction before we develop and release big changes Significant changes include for example creating new custom resources proposing breaking changes changing the behavior of the controller significantly Please create a document in the design directory based on the template 000 template md and fill in your proposal Open a pull request in draft mode and request feedback Once the proposal is accepted and the pull request is merged we can create work packages and proceed with the implementation Release Planning We have a GitHub Project Board https github com orgs external secrets projects 2 views 1 where we organize issues on a high level We group issues by milestone Once all issues of a given milestone are closed we should prepare a new feature release Issues of the next milestone have priority over other issues but that does not mean that no one is allowed to start working on them Issues must be manually added to that board at least for now see GH Roadmap https github com github roadmap issues 286 Milestones must be assigned manually as well If no milestone is assigned it is basically a backlog item It is the responsibility of the maintainers to 1 assign new issues to the GH Project 2 add a milestone if needed 3 add appropriate labels If you would like to raise the priority of an issue for whatever reason feel free to comment on the issue or ping a maintainer Support Questions Providing support to end users is an important and difficult task We have three different channels through which support questions arise 1 Kubernetes Slack external secrets https kubernetes slack com archives C017BF84G2Y 2 GitHub Discussions https github com external secrets external secrets discussions 3 GitHub Issues We use labels to identify GitHub Issues Specifically for managing support cases we use the following labels to identify the state a support case is in triage needs information Indicates an issue needs more information in order to work on it triage not reproducible Indicates an issue can not be reproduced as described triage support Indicates an issue that is a support question Cutting Releases The external secrets project is released on a as needed basis Feel free to open a issue to request a release Details on how to cut a release can be found in the release release md page |
external secrets Getting Started cd external secrets You must have a working and shell git clone https github com external secrets external secrets git then clone the repo | ## Getting Started
You must have a working [Go environment](https://golang.org/doc/install) and
then clone the repo:
```shell
git clone https://github.com/external-secrets/external-secrets.git
cd external-secrets
```
_Note: many of the `make` commands use [yq](https://github.com/mikefarah/yq), version 4.2X.X or higher._
Our helm chart is tested using `helm-unittest`. You will need it to run tests locally if you modify the helm chart. Install it with the following command:
```
$ helm plugin install https://github.com/helm-unittest/helm-unittest
```
## Building & Testing
The project uses the `make` build system. It'll run code generators, tests and
static code analysis.
Building the operator binary and docker image:
```shell
make build
make docker.build IMAGE_NAME=external-secrets IMAGE_TAG=latest
```
Run tests and lint the code:
```shell
make test
make lint # OR
docker run --rm -v $(pwd):/app -w /app golangci/golangci-lint:v1.49.0 golangci-lint run
```
Build the documentation:
```shell
make docs
```
## Using Tilt
[Tilt](https://tilt.dev) can be used to develop external-secrets. Tilt will hot-reload changes to the code and replace
the running binary in the container using a process manager of its own.
To run tilt, download the utility for your operating system and run `make tilt-up`. This will do two things:
- downloads tilt for the current OS and ARCH under `bin/tilt`
- make manifest files of your current changes and place them under `./bin/deploy/manifests/external-secrets.yaml`
- run tilt with `tilt run`
Hit `space` and you can observe all the pods starting up and track their output in the tilt UI.
## Installing
To install the External Secret Operator into a Kubernetes Cluster run:
```shell
helm repo add external-secrets https://charts.external-secrets.io
helm repo update
helm install external-secrets external-secrets/external-secrets
```
You can alternatively run the controller on your host system for development purposes:
```shell
make crds.install
make run
```
To remove the CRDs run:
```shell
make crds.uninstall
```
If you need to test some other k8s integrations and need the operator to be deployed to the actual cluster while developing, you can use the following workflow:
```shell
# Start a local K8S cluster with KinD
kind create cluster --name external-secrets
export TAG=$(make docker.tag)
export IMAGE=$(make docker.imagename)
# Build docker image
make docker.build
# Load docker image into local kind cluster
kind load docker-image $IMAGE:$TAG --name external-secrets
# (Optional) Pull the image from GitHub Repo to copy into kind
# docker pull ghcr.io/external-secrets/external-secrets:v0.8.2
# kind load docker-image ghcr.io/external-secrets/external-secrets:v0.8.2 -n external-secrets
# export TAG=v0.8.2
# Update helm charts and install to KinD cluster
make helm.generate
helm upgrade --install external-secrets ./deploy/charts/external-secrets/ \
--set image.repository=$IMAGE --set image.tag=$TAG \
--set webhook.image.repository=$IMAGE --set webhook.image.tag=$TAG \
--set certController.image.repository=$IMAGE --set certController.image.tag=$TAG
# Command to delete the cluster when done
# kind delete cluster -n external-secrets
```
!!! note "Contributing Flow"
The HOW TO guide for contributing is at the [Contributing Process](process.md) page.
## Documentation
We use [mkdocs material](https://squidfunk.github.io/mkdocs-material/) and [mike](https://github.com/jimporter/mike) to generate this
documentation. See `/docs` for the source code and `/hack/api-docs` for the build process.
When writing documentation it is advised to run the mkdocs server with livereload:
```shell
make docs.serve
```
Run the following command to run a complete build. The rendered assets are available under `/site`.
```shell
make docs
make docs.serve
```
Open `http://localhost:8000` in your browser.
Since mike uses a branch to create/update documentation, any docs operation will create a diff on your local `gh-pages` branch.
When finished writing/reviewing the docs, clean up your local docs branch changes with `git branch -D gh-pages` | external secrets | Getting Started You must have a working Go environment https golang org doc install and then clone the repo shell git clone https github com external secrets external secrets git cd external secrets Note many of the make commands use yq https github com mikefarah yq version 4 2X X or higher Our helm chart is tested using helm unittest You will need it to run tests locally if you modify the helm chart Install it with the following command helm plugin install https github com helm unittest helm unittest Building Testing The project uses the make build system It ll run code generators tests and static code analysis Building the operator binary and docker image shell make build make docker build IMAGE NAME external secrets IMAGE TAG latest Run tests and lint the code shell make test make lint OR docker run rm v pwd app w app golangci golangci lint v1 49 0 golangci lint run Build the documentation shell make docs Using Tilt Tilt https tilt dev can be used to develop external secrets Tilt will hot reload changes to the code and replace the running binary in the container using a process manager of its own To run tilt download the utility for your operating system and run make tilt up This will do two things downloads tilt for the current OS and ARCH under bin tilt make manifest files of your current changes and place them under bin deploy manifests external secrets yaml run tilt with tilt run Hit space and you can observe all the pods starting up and track their output in the tilt UI Installing To install the External Secret Operator into a Kubernetes Cluster run shell helm repo add external secrets https charts external secrets io helm repo update helm install external secrets external secrets external secrets You can alternatively run the controller on your host system for development purposes shell make crds install make run To remove the CRDs run shell make crds uninstall If you need to test some other k8s integrations and need the operator to be deployed to the actual cluster while developing you can use the following workflow shell Start a local K8S cluster with KinD kind create cluster name external secrets export TAG make docker tag export IMAGE make docker imagename Build docker image make docker build Load docker image into local kind cluster kind load docker image IMAGE TAG name external secrets Optional Pull the image from GitHub Repo to copy into kind docker pull ghcr io external secrets external secrets v0 8 2 kind load docker image ghcr io external secrets external secrets v0 8 2 n external secrets export TAG v0 8 2 Update helm charts and install to KinD cluster make helm generate helm upgrade install external secrets deploy charts external secrets set image repository IMAGE set image tag TAG set webhook image repository IMAGE set webhook image tag TAG set certController image repository IMAGE set certController image tag TAG Command to delete the cluster when done kind delete cluster n external secrets note Contributing Flow The HOW TO guide for contributing is at the Contributing Process process md page Documentation We use mkdocs material https squidfunk github io mkdocs material and mike https github com jimporter mike to generate this documentation See docs for the source code and hack api docs for the build process When writing documentation it is advised to run the mkdocs server with livereload shell make docs serve Run the following command to run a complete build The rendered assets are available under site shell make docs make docs serve Open http localhost 8000 in your browser Since mike uses a branch to create update documentation any docs operation will create a diff on your local gh pages branch When finished writing reviewing the docs clean up your local docs branch changes with git branch D gh pages |
external secrets identity and expression level of experience education socio economic status size visible or invisible disability ethnicity sex characteristics gender Code of Conduct We as members contributors and leaders pledge to make participation in our nationality personal appearance race caste color religion or sexual identity Our Pledge community a harassment free experience for everyone regardless of age body |
# Code of Conduct
## Our Pledge
We as members, contributors, and leaders pledge to make participation in our
community a harassment-free experience for everyone, regardless of age, body
size, visible or invisible disability, ethnicity, sex characteristics, gender
identity and expression, level of experience, education, socio-economic status,
nationality, personal appearance, race, caste, color, religion, or sexual identity
and orientation.
We pledge to act and interact in ways that contribute to an open, welcoming,
diverse, inclusive, and healthy community.
## Our Standards
Examples of behavior that contributes to a positive environment for our
community include:
* Demonstrating empathy and kindness toward other people
* Being respectful of differing opinions, viewpoints, and experiences
* Giving and gracefully accepting constructive feedback
* Accepting responsibility and apologizing to those affected by our mistakes,
and learning from the experience
* Focusing on what is best not just for us as individuals, but for the
overall community
Examples of unacceptable behavior include:
* The use of sexualized language or imagery, and sexual attention or
advances of any kind
* Trolling, insulting or derogatory comments, and personal or political attacks
* Public or private harassment
* Publishing others' private information, such as a physical or email
address, without their explicit permission
* Other conduct which could reasonably be considered inappropriate in a
professional setting
## Enforcement Responsibilities
Community leaders are responsible for clarifying and enforcing our standards of
acceptable behavior and will take appropriate and fair corrective action in
response to any behavior that they deem inappropriate, threatening, offensive,
or harmful.
Community leaders have the right and responsibility to remove, edit, or reject
comments, commits, code, wiki edits, issues, and other contributions that are
not aligned to this Code of Conduct, and will communicate reasons for moderation
decisions when appropriate.
## Scope
This Code of Conduct applies within all community spaces, and also applies when
an individual is officially representing the community in public spaces.
Examples of representing our community include using an official e-mail address,
posting via an official social media account, or acting as an appointed
representative at an online or offline event.
## Enforcement
Instances of abusive, harassing, or otherwise unacceptable behavior may be
reported to the community leaders responsible for enforcement at [email protected].
All complaints will be reviewed and investigated promptly and fairly.
All community leaders are obligated to respect the privacy and security of the
reporter of any incident.
## Enforcement Guidelines
Community leaders will follow these Community Impact Guidelines in determining
the consequences for any action they deem in violation of this Code of Conduct:
### 1. Correction
**Community Impact**: Use of inappropriate language or other behavior deemed
unprofessional or unwelcome in the community.
**Consequence**: A private, written warning from community leaders, providing
clarity around the nature of the violation and an explanation of why the
behavior was inappropriate. A public apology may be requested.
### 2. Warning
**Community Impact**: A violation through a single incident or series
of actions.
**Consequence**: A warning with consequences for continued behavior. No
interaction with the people involved, including unsolicited interaction with
those enforcing the Code of Conduct, for a specified period of time. This
includes avoiding interactions in community spaces as well as external channels
like social media. Violating these terms may lead to a temporary or
permanent ban.
### 3. Temporary Ban
**Community Impact**: A serious violation of community standards, including
sustained inappropriate behavior.
**Consequence**: A temporary ban from any sort of interaction or public
communication with the community for a specified period of time. No public or
private interaction with the people involved, including unsolicited interaction
with those enforcing the Code of Conduct, is allowed during this period.
Violating these terms may lead to a permanent ban.
### 4. Permanent Ban
**Community Impact**: Demonstrating a pattern of violation of community
standards, including sustained inappropriate behavior, harassment of an
individual, or aggression toward or disparagement of classes of individuals.
**Consequence**: A permanent ban from any sort of public interaction within
the community.
## Attribution
This Code of Conduct is adapted from the [Contributor Covenant][homepage],
version 2.0, available at
[https://www.contributor-covenant.org/version/2/0/code_of_conduct.html][v2.0].
Community Impact Guidelines were inspired by
[Mozilla's code of conduct enforcement ladder][Mozilla CoC].
For answers to common questions about this code of conduct, see the FAQ at
[https://www.contributor-covenant.org/faq][FAQ]. Translations are available
at [https://www.contributor-covenant.org/translations][translations].
[homepage]: https://www.contributor-covenant.org
[v2.0]: https://www.contributor-covenant.org/version/2/0/code_of_conduct.html
[Mozilla CoC]: https://github.com/mozilla/diversity
[FAQ]: https://www.contributor-covenant.org/faq
[translations]: https://www.contributor-covenant.org/translations | external secrets | Code of Conduct Our Pledge We as members contributors and leaders pledge to make participation in our community a harassment free experience for everyone regardless of age body size visible or invisible disability ethnicity sex characteristics gender identity and expression level of experience education socio economic status nationality personal appearance race caste color religion or sexual identity and orientation We pledge to act and interact in ways that contribute to an open welcoming diverse inclusive and healthy community Our Standards Examples of behavior that contributes to a positive environment for our community include Demonstrating empathy and kindness toward other people Being respectful of differing opinions viewpoints and experiences Giving and gracefully accepting constructive feedback Accepting responsibility and apologizing to those affected by our mistakes and learning from the experience Focusing on what is best not just for us as individuals but for the overall community Examples of unacceptable behavior include The use of sexualized language or imagery and sexual attention or advances of any kind Trolling insulting or derogatory comments and personal or political attacks Public or private harassment Publishing others private information such as a physical or email address without their explicit permission Other conduct which could reasonably be considered inappropriate in a professional setting Enforcement Responsibilities Community leaders are responsible for clarifying and enforcing our standards of acceptable behavior and will take appropriate and fair corrective action in response to any behavior that they deem inappropriate threatening offensive or harmful Community leaders have the right and responsibility to remove edit or reject comments commits code wiki edits issues and other contributions that are not aligned to this Code of Conduct and will communicate reasons for moderation decisions when appropriate Scope This Code of Conduct applies within all community spaces and also applies when an individual is officially representing the community in public spaces Examples of representing our community include using an official e mail address posting via an official social media account or acting as an appointed representative at an online or offline event Enforcement Instances of abusive harassing or otherwise unacceptable behavior may be reported to the community leaders responsible for enforcement at cncf ExternalSecretsOp maintainers lists cncf io All complaints will be reviewed and investigated promptly and fairly All community leaders are obligated to respect the privacy and security of the reporter of any incident Enforcement Guidelines Community leaders will follow these Community Impact Guidelines in determining the consequences for any action they deem in violation of this Code of Conduct 1 Correction Community Impact Use of inappropriate language or other behavior deemed unprofessional or unwelcome in the community Consequence A private written warning from community leaders providing clarity around the nature of the violation and an explanation of why the behavior was inappropriate A public apology may be requested 2 Warning Community Impact A violation through a single incident or series of actions Consequence A warning with consequences for continued behavior No interaction with the people involved including unsolicited interaction with those enforcing the Code of Conduct for a specified period of time This includes avoiding interactions in community spaces as well as external channels like social media Violating these terms may lead to a temporary or permanent ban 3 Temporary Ban Community Impact A serious violation of community standards including sustained inappropriate behavior Consequence A temporary ban from any sort of interaction or public communication with the community for a specified period of time No public or private interaction with the people involved including unsolicited interaction with those enforcing the Code of Conduct is allowed during this period Violating these terms may lead to a permanent ban 4 Permanent Ban Community Impact Demonstrating a pattern of violation of community standards including sustained inappropriate behavior harassment of an individual or aggression toward or disparagement of classes of individuals Consequence A permanent ban from any sort of public interaction within the community Attribution This Code of Conduct is adapted from the Contributor Covenant homepage version 2 0 available at https www contributor covenant org version 2 0 code of conduct html v2 0 Community Impact Guidelines were inspired by Mozilla s code of conduct enforcement ladder Mozilla CoC For answers to common questions about this code of conduct see the FAQ at https www contributor covenant org faq FAQ Translations are available at https www contributor covenant org translations translations homepage https www contributor covenant org v2 0 https www contributor covenant org version 2 0 code of conduct html Mozilla CoC https github com mozilla diversity FAQ https www contributor covenant org faq translations https www contributor covenant org translations |
external secrets If the which define where secrets live and how to synchronize them The controller Architecture The External Secrets Operator extends Kubernetes with Custom fetches secrets from an external API and creates Kubernetes API Overview Resources https kubernetes io docs concepts extend kubernetes api extension custom resources | # API Overview
## Architecture
![high-level](../pictures/diagrams-high-level-simple.png)
The External Secrets Operator extends Kubernetes with [Custom
Resources](https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/),
which define where secrets live and how to synchronize them. The controller
fetches secrets from an external API and creates Kubernetes
[secrets](https://kubernetes.io/docs/concepts/configuration/secret/). If the
secret from the external API changes, the controller will reconcile the state in
the cluster and update the secrets accordingly.
## Resource model
To understand the mechanics of the operator let's start with the data model. The
SecretStore references a bucket of key/value pairs. But because every external
API is slightly different this bucket may be e.g. an instance of an Azure
KeyVault or a AWS Secrets Manager in a certain AWS Account and region. Please
take a look at the provider documentation to see what the Bucket actually maps
to.
![Resource Mapping](../pictures/diagrams-resource-mapping.png)
### SecretStore
The idea behind the [SecretStore](../api/secretstore.md) resource is to separate concerns of
authentication/access and the actual Secret and configuration needed for
workloads. The ExternalSecret specifies what to fetch, the SecretStore specifies
how to access. This resource is namespaced.
``` yaml
{% include 'basic-secret-store.yaml' %}
```
The `SecretStore` contains references to secrets which hold credentials to
access the external API.
### ExternalSecret
An [ExternalSecret](../api/externalsecret.md) declares what data to fetch. It has a reference to a
`SecretStore` which knows how to access that data. The controller uses that
`ExternalSecret` as a blueprint to create secrets.
``` yaml
{% include 'basic-external-secret.yaml' %}
```
### ClusterSecretStore
The [ClusterSecretStore](../api/clustersecretstore.md) is a global, cluster-wide SecretStore that can be
referenced from all namespaces. You can use it to provide a central gateway to your secret provider.
## Behavior
The External Secret Operator (ESO for brevity) reconciles `ExternalSecrets` in
the following manner:
1. ESO uses `spec.secretStoreRef` to find an appropriate `SecretStore`. If it
doesn't exist or the `spec.controller` field doesn't match it won't further
process this ExternalSecret.
2. ESO instanciates an external API client using the specified credentials from
the `SecretStore` spec.
3. ESO fetches the secrets as requested by the `ExternalSecret`, it will decode
the secrets if required
5. ESO creates an `Kind=Secret` based on the template provided by
`ExternalSecret.target.template`. The `Secret.data` can be templated using
the secret values from the external API.
6. ESO ensures that the secret values stay in sync with the external API
## Roles and responsibilities
The External Secret Operator is designed to target the following persona:
* **Cluster Operator**: The cluster operator is responsible for setting up the
External Secret Operator, managing access policies and creating
ClusterSecretStores.
* **Application developer**: The Application developer is responsible for
defining ExternalSecrets and the application configuration
Each persona will roughly map to a Kubernetes RBAC role. Depending on your
environment these roles can map to a single user. **Note:** There is no Secret
Operator that handles the lifecycle of the secret, this is out of the scope of
ESO.
## Access Control
The External Secrets Operator runs as a deployment in your cluster with elevated
privileges. It will create/read/update secrets in all namespaces and has access
to secrets stored in some external API. Ensure that the credentials you provide
give ESO the least privilege necessary.
Design your `SecretStore`/`ClusterSecretStore` carefully! Be sure to restrict
access of application developers to read only certain
keys in a shared environment.
You should also consider using Kubernetes' admission control system (e.g.
[OPA](https://www.openpolicyagent.org/) or [Kyverno](https://kyverno.io/)) for
fine-grained access control.
## Running multiple Controller
You can run multiple controllers within the cluster. One controller can be
limited to only process `SecretStores` with a predefined `spec.controller`
field.
!!! note "Testers welcome"
This is not widely tested. Please help us test the setup and/or document use-cases. | external secrets | API Overview Architecture high level pictures diagrams high level simple png The External Secrets Operator extends Kubernetes with Custom Resources https kubernetes io docs concepts extend kubernetes api extension custom resources which define where secrets live and how to synchronize them The controller fetches secrets from an external API and creates Kubernetes secrets https kubernetes io docs concepts configuration secret If the secret from the external API changes the controller will reconcile the state in the cluster and update the secrets accordingly Resource model To understand the mechanics of the operator let s start with the data model The SecretStore references a bucket of key value pairs But because every external API is slightly different this bucket may be e g an instance of an Azure KeyVault or a AWS Secrets Manager in a certain AWS Account and region Please take a look at the provider documentation to see what the Bucket actually maps to Resource Mapping pictures diagrams resource mapping png SecretStore The idea behind the SecretStore api secretstore md resource is to separate concerns of authentication access and the actual Secret and configuration needed for workloads The ExternalSecret specifies what to fetch the SecretStore specifies how to access This resource is namespaced yaml include basic secret store yaml The SecretStore contains references to secrets which hold credentials to access the external API ExternalSecret An ExternalSecret api externalsecret md declares what data to fetch It has a reference to a SecretStore which knows how to access that data The controller uses that ExternalSecret as a blueprint to create secrets yaml include basic external secret yaml ClusterSecretStore The ClusterSecretStore api clustersecretstore md is a global cluster wide SecretStore that can be referenced from all namespaces You can use it to provide a central gateway to your secret provider Behavior The External Secret Operator ESO for brevity reconciles ExternalSecrets in the following manner 1 ESO uses spec secretStoreRef to find an appropriate SecretStore If it doesn t exist or the spec controller field doesn t match it won t further process this ExternalSecret 2 ESO instanciates an external API client using the specified credentials from the SecretStore spec 3 ESO fetches the secrets as requested by the ExternalSecret it will decode the secrets if required 5 ESO creates an Kind Secret based on the template provided by ExternalSecret target template The Secret data can be templated using the secret values from the external API 6 ESO ensures that the secret values stay in sync with the external API Roles and responsibilities The External Secret Operator is designed to target the following persona Cluster Operator The cluster operator is responsible for setting up the External Secret Operator managing access policies and creating ClusterSecretStores Application developer The Application developer is responsible for defining ExternalSecrets and the application configuration Each persona will roughly map to a Kubernetes RBAC role Depending on your environment these roles can map to a single user Note There is no Secret Operator that handles the lifecycle of the secret this is out of the scope of ESO Access Control The External Secrets Operator runs as a deployment in your cluster with elevated privileges It will create read update secrets in all namespaces and has access to secrets stored in some external API Ensure that the credentials you provide give ESO the least privilege necessary Design your SecretStore ClusterSecretStore carefully Be sure to restrict access of application developers to read only certain keys in a shared environment You should also consider using Kubernetes admission control system e g OPA https www openpolicyagent org or Kyverno https kyverno io for fine grained access control Running multiple Controller You can run multiple controllers within the cluster One controller can be limited to only process SecretStores with a predefined spec controller field note Testers welcome This is not widely tested Please help us test the setup and or document use cases |
external secrets hide toc We want to provide security patches and critical bug fixes in a timely manner to our users Supported Versions This page lists the status timeline and policy for currently supported ESO releases and its providers Please also see our that describes API versioning deprecation and API surface | ---
hide:
- toc
---
This page lists the status, timeline and policy for currently supported ESO releases and its providers. Please also see our [deprecation policy](deprecation-policy.md) that describes API versioning, deprecation and API surface.
## Supported Versions
We want to provide security patches and critical bug fixes in a timely manner to our users.
To do so, we offer long-term support for our latest two (N, N-1) software releases.
We aim for a 2-3 month minor release cycle, i.e. a given release is supported for about 4-6 months.
We want to cover the following cases:
- regular image rebuilds to update OS dependencies
- regular go dependency updates
- backport bug fixes on demand
| ESO Version | Kubernetes Version | Release Date | End of Life |
| ----------- | ------------------ | ------------ | --------------- |
| 0.10.x | 1.19 → 1.31 | Aug 3, 2024 | Release of 0.12 |
| 0.9.x | 1.19 → 1.30 | Jun 22, 2023 | Release of 0.11 |
| 0.8.x | 1.19 → 1.28 | Mar 16, 2023 | Aug 3, 2024 |
| 0.7.x | 1.19 → 1.26 | Dec 11, 2022 | Jun 22, 2023 |
| 0.6.x | 1.19 → 1.24 | Oct 9, 2022 | Mar 16, 2023 |
| 0.5.x | 1.19 → 1.24 | Apr 6, 2022 | Dec 11, 2022 |
| 0.4.x | 1.16 → 1.24 | Feb 2, 2022 | Oct 9, 2022 |
| 0.3.x | 1.16 → 1.24 | Jul 25, 2021 | Apr 6, 2022 |
## Provider Stability and Support Level
The following table describes the stability level of each provider and who's responsible.
| Provider | Stability | Maintainer |
|------------------------------------------------------------------------------------------------------------|:---------:|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------:|
| [AWS Secrets Manager](https://external-secrets.io/latest/provider/aws-secrets-manager/) | stable | [external-secrets](https://github.com/external-secrets) |
| [AWS Parameter Store](https://external-secrets.io/latest/provider/aws-parameter-store/) | stable | [external-secrets](https://github.com/external-secrets) |
| [Hashicorp Vault](https://external-secrets.io/latest/provider/hashicorp-vault/) | stable | [external-secrets](https://github.com/external-secrets) |
| [GCP Secret Manager](https://external-secrets.io/latest/provider/google-secrets-manager/) | stable | [external-secrets](https://github.com/external-secrets) |
| [Azure Keyvault](https://external-secrets.io/latest/provider/azure-key-vault/) | stable | [external-secrets](https://github.com/external-secrets) |
| [IBM Cloud Secrets Manager](https://external-secrets.io/latest/provider/ibm-secrets-manager/) | stable | [@knelasevero](https://github.com/knelasevero) [@sebagomez](https://github.com/sebagomez) [@ricardoptcosta](https://github.com/ricardoptcosta) [@IdanAdar](https://github.com/IdanAdar) |
| [Kubernetes](https://external-secrets.io/latest/provider/kubernetes) | beta | [external-secrets](https://github.com/external-secrets) |
| [Yandex Lockbox](https://external-secrets.io/latest/provider/yandex-lockbox/) | alpha | [@AndreyZamyslov](https://github.com/AndreyZamyslov) [@knelasevero](https://github.com/knelasevero) |
| [GitLab Variables](https://external-secrets.io/latest/provider/gitlab-variables/) | alpha | [@Jabray5](https://github.com/Jabray5) |
| Alibaba Cloud KMS | alpha | [@ElsaChelala](https://github.com/ElsaChelala) |
| [Oracle Vault](https://external-secrets.io/latest/provider/oracle-vault) | alpha | [@KianTigger](https://github.com/KianTigger) [@EladGabay](https://github.com/EladGabay) |
| [Akeyless](https://external-secrets.io/latest/provider/akeyless) | stable | [external-secrets](https://github.com/external-secrets) |
| [1Password](https://external-secrets.io/latest/provider/1password-automation) | alpha | [@SimSpaceCorp](https://github.com/Simspace) [@snarlysodboxer](https://github.com/snarlysodboxer) |
| [Generic Webhook](https://external-secrets.io/latest/provider/webhook) | alpha | [@willemm](https://github.com/willemm) |
| [senhasegura DevOps Secrets Management (DSM)](https://external-secrets.io/latest/provider/senhasegura-dsm) | alpha | [@lfraga](https://github.com/lfraga) |
| [Doppler SecretOps Platform](https://external-secrets.io/latest/provider/doppler) | alpha | [@ryan-blunden](https://github.com/ryan-blunden/) [@nmanoogian](https://github.com/nmanoogian/) |
| [Keeper Security](https://www.keepersecurity.com/) | alpha | [@ppodevlab](https://github.com/ppodevlab) |
| [Scaleway](https://external-secrets.io/latest/provider/scaleway) | alpha | [@azert9](https://github.com/azert9/) |
| [Conjur](https://external-secrets.io/latest/provider/conjur) | stable | [@davidh-cyberark](https://github.com/davidh-cyberark/) [@szh](https://github.com/szh) |
| [Delinea](https://external-secrets.io/latest/provider/delinea) | alpha | [@michaelsauter](https://github.com/michaelsauter/) |
| [Beyondtrust](https://external-secrets.io/latest/provider/beyondtrust) | alpha | [@btfhernandez](https://github.com/btfhernandez/) |
| [SecretServer](https://external-secrets.io/latest/provider/secretserver) | alpha | [@billhamilton](https://github.com/pacificcode/) |
| [Pulumi ESC](https://external-secrets.io/latest/provider/pulumi) | alpha | [@dirien](https://github.com/dirien) |
| [Passbolt](https://external-secrets.io/latest/provider/passbolt) | alpha | |
| [Infisical](https://external-secrets.io/latest/provider/infisical) | alpha | [@akhilmhdh](https://github.com/akhilmhdh) |
| [Device42](https://external-secrets.io/latest/provider/device42) | alpha | |
| [Bitwarden Secrets Manager](https://external-secrets.io/latest/provider/bitwarden-secrets-manager) | alpha | [@skarlso](https://github.com/Skarlso) |
| [Previder](https://external-secrets.io/latest/provider/previder) | stable | [@previder](https://github.com/previder) |
## Provider Feature Support
The following table show the support for features across different providers.
| Provider | find by name | find by tags | metadataPolicy Fetch | referent authentication | store validation | push secret | DeletionPolicy Merge/Delete |
|---------------------------| :----------: | :----------: | :------------------: | :---------------------: | :--------------: |:-----------:|:---------------------------:|
| AWS Secrets Manager | x | x | x | x | x | x | x |
| AWS Parameter Store | x | x | x | x | x | x | x |
| Hashicorp Vault | x | x | x | x | x | x | x |
| GCP Secret Manager | x | x | x | x | x | x | x |
| Azure Keyvault | x | x | x | x | x | x | x |
| Kubernetes | x | x | x | x | x | x | x |
| IBM Cloud Secrets Manager | x | | x | | x | | |
| Yandex Lockbox | | | | | x | | |
| GitLab Variables | x | x | | | x | | |
| Alibaba Cloud KMS | | | | | x | | |
| Oracle Vault | | | | | x | | |
| Akeyless | x | x | | x | x | x | x |
| 1Password | x | | | | x | x | x |
| Generic Webhook | | | | | | | x |
| senhasegura DSM | | | | | x | | |
| Doppler | x | | | | x | | |
| Keeper Security | x | | | | x | x | |
| Scaleway | x | x | | | x | x | x |
| Conjur | x | x | | | x | | |
| Delinea | x | | | | x | | |
| Beyondtrust | x | | | | x | | |
| SecretServer | x | | | | x | | |
| Pulumi ESC | x | | | | x | | |
| Passbolt | x | | | | x | | |
| Infisical | x | | | x | x | | |
| Device42 | | | | | x | | |
| Bitwarden Secrets Manager | x | | | | x | x | x |
| Previder | x | | | | x | | |
## Support Policy
We provide technical support and security / bug fixes for the above listed versions.
### Technical support
We provide assistance for deploying/upgrading etc. on a best-effort basis. You can request support through the following channels:
- [Kubernetes Slack
#external-secrets](https://kubernetes.slack.com/messages/external-secrets)
- GitHub [Issues](https://github.com/external-secrets/external-secrets/issues)
- GitHub [Discussions](https://github.com/external-secrets/external-secrets/discussions)
Even though we have active maintainers and people assigned to this project, we kindly ask for patience when asking for support. We will try to get to priority issues as fast as possible, but there may be some delays. | external secrets | hide toc This page lists the status timeline and policy for currently supported ESO releases and its providers Please also see our deprecation policy deprecation policy md that describes API versioning deprecation and API surface Supported Versions We want to provide security patches and critical bug fixes in a timely manner to our users To do so we offer long term support for our latest two N N 1 software releases We aim for a 2 3 month minor release cycle i e a given release is supported for about 4 6 months We want to cover the following cases regular image rebuilds to update OS dependencies regular go dependency updates backport bug fixes on demand ESO Version Kubernetes Version Release Date End of Life 0 10 x 1 19 1 31 Aug 3 2024 Release of 0 12 0 9 x 1 19 1 30 Jun 22 2023 Release of 0 11 0 8 x 1 19 1 28 Mar 16 2023 Aug 3 2024 0 7 x 1 19 1 26 Dec 11 2022 Jun 22 2023 0 6 x 1 19 1 24 Oct 9 2022 Mar 16 2023 0 5 x 1 19 1 24 Apr 6 2022 Dec 11 2022 0 4 x 1 16 1 24 Feb 2 2022 Oct 9 2022 0 3 x 1 16 1 24 Jul 25 2021 Apr 6 2022 Provider Stability and Support Level The following table describes the stability level of each provider and who s responsible Provider Stability Maintainer AWS Secrets Manager https external secrets io latest provider aws secrets manager stable external secrets https github com external secrets AWS Parameter Store https external secrets io latest provider aws parameter store stable external secrets https github com external secrets Hashicorp Vault https external secrets io latest provider hashicorp vault stable external secrets https github com external secrets GCP Secret Manager https external secrets io latest provider google secrets manager stable external secrets https github com external secrets Azure Keyvault https external secrets io latest provider azure key vault stable external secrets https github com external secrets IBM Cloud Secrets Manager https external secrets io latest provider ibm secrets manager stable knelasevero https github com knelasevero sebagomez https github com sebagomez ricardoptcosta https github com ricardoptcosta IdanAdar https github com IdanAdar Kubernetes https external secrets io latest provider kubernetes beta external secrets https github com external secrets Yandex Lockbox https external secrets io latest provider yandex lockbox alpha AndreyZamyslov https github com AndreyZamyslov knelasevero https github com knelasevero GitLab Variables https external secrets io latest provider gitlab variables alpha Jabray5 https github com Jabray5 Alibaba Cloud KMS alpha ElsaChelala https github com ElsaChelala Oracle Vault https external secrets io latest provider oracle vault alpha KianTigger https github com KianTigger EladGabay https github com EladGabay Akeyless https external secrets io latest provider akeyless stable external secrets https github com external secrets 1Password https external secrets io latest provider 1password automation alpha SimSpaceCorp https github com Simspace snarlysodboxer https github com snarlysodboxer Generic Webhook https external secrets io latest provider webhook alpha willemm https github com willemm senhasegura DevOps Secrets Management DSM https external secrets io latest provider senhasegura dsm alpha lfraga https github com lfraga Doppler SecretOps Platform https external secrets io latest provider doppler alpha ryan blunden https github com ryan blunden nmanoogian https github com nmanoogian Keeper Security https www keepersecurity com alpha ppodevlab https github com ppodevlab Scaleway https external secrets io latest provider scaleway alpha azert9 https github com azert9 Conjur https external secrets io latest provider conjur stable davidh cyberark https github com davidh cyberark szh https github com szh Delinea https external secrets io latest provider delinea alpha michaelsauter https github com michaelsauter Beyondtrust https external secrets io latest provider beyondtrust alpha btfhernandez https github com btfhernandez SecretServer https external secrets io latest provider secretserver alpha billhamilton https github com pacificcode Pulumi ESC https external secrets io latest provider pulumi alpha dirien https github com dirien Passbolt https external secrets io latest provider passbolt alpha Infisical https external secrets io latest provider infisical alpha akhilmhdh https github com akhilmhdh Device42 https external secrets io latest provider device42 alpha Bitwarden Secrets Manager https external secrets io latest provider bitwarden secrets manager alpha skarlso https github com Skarlso Previder https external secrets io latest provider previder stable previder https github com previder Provider Feature Support The following table show the support for features across different providers Provider find by name find by tags metadataPolicy Fetch referent authentication store validation push secret DeletionPolicy Merge Delete AWS Secrets Manager x x x x x x x AWS Parameter Store x x x x x x x Hashicorp Vault x x x x x x x GCP Secret Manager x x x x x x x Azure Keyvault x x x x x x x Kubernetes x x x x x x x IBM Cloud Secrets Manager x x x Yandex Lockbox x GitLab Variables x x x Alibaba Cloud KMS x Oracle Vault x Akeyless x x x x x x 1Password x x x x Generic Webhook x senhasegura DSM x Doppler x x Keeper Security x x x Scaleway x x x x x Conjur x x x Delinea x x Beyondtrust x x SecretServer x x Pulumi ESC x x Passbolt x x Infisical x x x Device42 x Bitwarden Secrets Manager x x x x Previder x x Support Policy We provide technical support and security bug fixes for the above listed versions Technical support We provide assistance for deploying upgrading etc on a best effort basis You can request support through the following channels Kubernetes Slack external secrets https kubernetes slack com messages external secrets GitHub Issues https github com external secrets external secrets issues GitHub Discussions https github com external secrets external secrets discussions Even though we have active maintainers and people assigned to this project we kindly ask for patience when asking for support We will try to get to priority issues as fast as possible but there may be some delays |
external secrets to a supported version before installing external secrets Installing with Helm Getting started External secrets runs within your Kubernetes cluster as a deployment resource and manages Kubernetes secret resources with ExternalSecret resources It utilizes CustomResourceDefinitions to configure access to secret providers through SecretStore resources Note The minimum supported version of Kubernetes is Users still running Kubernetes v1 15 or below should upgrade | # Getting started
External-secrets runs within your Kubernetes cluster as a deployment resource.
It utilizes CustomResourceDefinitions to configure access to secret providers through SecretStore resources
and manages Kubernetes secret resources with ExternalSecret resources.
> Note: The minimum supported version of Kubernetes is `1.16.0`. Users still running Kubernetes v1.15 or below should upgrade
> to a supported version before installing external-secrets.
## Installing with Helm
The default install options will automatically install and manage the CRDs as part of your helm release. If you do not want the CRDs to be automatically upgraded and managed, you must set the `installCRDs` option to `false`. (e.g. `--set installCRDs=false`)
You can install those CRDs outside of `helm` using:
```bash
kubectl apply -k "https://raw.githubusercontent.com/external-secrets/external-secrets/<replace_with_your_version>/deploy/crds/bundle.yaml"
```
Uncomment the relevant line in the next steps to disable the automatic install of CRDs.
### Option 1: Install from chart repository
```bash
helm repo add external-secrets https://charts.external-secrets.io
helm install external-secrets \
external-secrets/external-secrets \
-n external-secrets \
--create-namespace \
# --set installCRDs=false
```
### Option 2: Install chart from local build
Build and install the Helm chart locally after cloning the repository.
```bash
make helm.build
helm install external-secrets \
./bin/chart/external-secrets.tgz \
-n external-secrets \
--create-namespace \
# --set installCRDs=false
```
### Create a secret containing your AWS credentials
```shell
echo -n 'KEYID' > ./access-key
echo -n 'SECRETKEY' > ./secret-access-key
kubectl create secret generic awssm-secret --from-file=./access-key --from-file=./secret-access-key
```
### Create your first SecretStore
Create a file 'basic-secret-store.yaml' with the following content.
```yaml
{% include 'basic-secret-store.yaml' %}
```
Apply it to create a SecretStore resource.
```
kubectl apply -f "basic-secret-store.yaml"
```
### Create your first ExternalSecret
Create a file 'basic-external-secret.yaml' with the following content.
```yaml
{% include 'basic-external-secret.yaml' %}
```
Apply it to create an External Secret resource.
```
kubectl apply -f "basic-external-secret.yaml"
```
```bash
kubectl describe externalsecret example
# [...]
Name: example
Status:
Binding:
Name: secret-to-be-created
Conditions:
Last Transition Time: 2021-02-24T16:45:23Z
Message: Secret was synced
Reason: SecretSynced
Status: True
Type: Ready
Refresh Time: 2021-02-24T16:45:24Z
Events: <none>
```
For more advanced examples, please read the other
[guides](../guides/introduction.md).
## Installing with OLM
External-secrets can be managed by [Operator Lifecycle Manager](https://olm.operatorframework.io/) (OLM) via an installer operator. It is made available through [OperatorHub.io](https://operatorhub.io/), this installation method is suited best for OpenShift. See installation instructions on the [external-secrets-operator](https://operatorhub.io/operator/external-secrets-operator) package.
## Uninstalling
Before continuing, ensure that all external-secret resources that have been created by users have been deleted.
You can check for any existing resources with the following command:
```bash
kubectl get SecretStores,ClusterSecretStores,ExternalSecrets --all-namespaces
```
Once all these resources have been deleted you are ready to uninstall external-secrets.
### Uninstalling with Helm
Uninstall the helm release using the delete command.
```bash
helm delete external-secrets --namespace external-secrets
``` | external secrets | Getting started External secrets runs within your Kubernetes cluster as a deployment resource It utilizes CustomResourceDefinitions to configure access to secret providers through SecretStore resources and manages Kubernetes secret resources with ExternalSecret resources Note The minimum supported version of Kubernetes is 1 16 0 Users still running Kubernetes v1 15 or below should upgrade to a supported version before installing external secrets Installing with Helm The default install options will automatically install and manage the CRDs as part of your helm release If you do not want the CRDs to be automatically upgraded and managed you must set the installCRDs option to false e g set installCRDs false You can install those CRDs outside of helm using bash kubectl apply k https raw githubusercontent com external secrets external secrets replace with your version deploy crds bundle yaml Uncomment the relevant line in the next steps to disable the automatic install of CRDs Option 1 Install from chart repository bash helm repo add external secrets https charts external secrets io helm install external secrets external secrets external secrets n external secrets create namespace set installCRDs false Option 2 Install chart from local build Build and install the Helm chart locally after cloning the repository bash make helm build helm install external secrets bin chart external secrets tgz n external secrets create namespace set installCRDs false Create a secret containing your AWS credentials shell echo n KEYID access key echo n SECRETKEY secret access key kubectl create secret generic awssm secret from file access key from file secret access key Create your first SecretStore Create a file basic secret store yaml with the following content yaml include basic secret store yaml Apply it to create a SecretStore resource kubectl apply f basic secret store yaml Create your first ExternalSecret Create a file basic external secret yaml with the following content yaml include basic external secret yaml Apply it to create an External Secret resource kubectl apply f basic external secret yaml bash kubectl describe externalsecret example Name example Status Binding Name secret to be created Conditions Last Transition Time 2021 02 24T16 45 23Z Message Secret was synced Reason SecretSynced Status True Type Ready Refresh Time 2021 02 24T16 45 24Z Events none For more advanced examples please read the other guides guides introduction md Installing with OLM External secrets can be managed by Operator Lifecycle Manager https olm operatorframework io OLM via an installer operator It is made available through OperatorHub io https operatorhub io this installation method is suited best for OpenShift See installation instructions on the external secrets operator https operatorhub io operator external secrets operator package Uninstalling Before continuing ensure that all external secret resources that have been created by users have been deleted You can check for any existing resources with the following command bash kubectl get SecretStores ClusterSecretStores ExternalSecrets all namespaces Once all these resources have been deleted you are ready to uninstall external secrets Uninstalling with Helm Uninstall the helm release using the delete command bash helm delete external secrets namespace external secrets |
external secrets We support authentication with Microsoft Entra identities that can be used as Workload Identity or as well as with Service Principal credentials Authentication Azure Key vault External Secrets Operator integrates with for secrets certificates and Keys management |
![aws sm](../pictures/eso-az-kv-azure-kv.png)
## Azure Key vault
External Secrets Operator integrates with [Azure Key vault](https://azure.microsoft.com/en-us/services/key-vault/) for secrets, certificates and Keys management.
### Authentication
We support authentication with Microsoft Entra identities that can be used as Workload Identity or [AAD Pod Identity](https://azure.github.io/aad-pod-identity/docs/) as well as with Service Principal credentials.
Since the [AAD Pod Identity](https://azure.github.io/aad-pod-identity/docs/) is deprecated, it is recommended to use the [Workload Identity](https://azure.github.io/azure-workload-identity) authentication.
We support connecting to different cloud flavours azure supports: `PublicCloud`, `USGovernmentCloud`, `ChinaCloud` and `GermanCloud`. You have to specify the `environmentType` and point to the correct cloud flavour. This defaults to `PublicCloud`.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: azure-backend
spec:
provider:
azurekv:
# PublicCloud, USGovernmentCloud, ChinaCloud, GermanCloud
environmentType: PublicCloud # default
```
Minimum required permissions are `Get` over secret and certificate permissions. This can be done by adding a Key Vault access policy:
```sh
KUBELET_IDENTITY_OBJECT_ID=$(az aks show --resource-group <AKS_CLUSTER_RG_NAME> --name <AKS_CLUSTER_NAME> --query 'identityProfile.kubeletidentity.objectId' -o tsv)
az keyvault set-policy --name kv-name-with-certs --object-id "$KUBELET_IDENTITY_OBJECT_ID" --certificate-permissions get --secret-permissions get
```
#### Service Principal key authentication
A service Principal client and Secret is created and the JSON keyfile is stored in a `Kind=Secret`. The `ClientID` and `ClientSecret` or `ClientCertificate` (in PEM format) should be configured for the secret. This service principal should have proper access rights to the keyvault to be managed by the operator.
#### Managed Identity authentication
A Managed Identity should be created in Azure, and that Identity should have proper rights to the keyvault to be managed by the operator.
Use [aad-pod-identity](https://azure.github.io/aad-pod-identity/docs/) to assign the identity to external-secrets operator. To add the selector to external-secrets operator, use `podLabels` in your values.yaml in case of Helm installation of external-secrets.
If there are multiple Managed Identities for different keyvaults, the operator should have been assigned all identities via [aad-pod-identity](https://azure.github.io/aad-pod-identity/docs/), then the SecretStore configuration should include the Id of the identity to be used via the `identityId` field.
```yaml
{% include 'azkv-secret-store-mi.yaml' %}
```
#### Workload Identity
In Microsoft Entra, Workload Identity can be Application, user-assigned Managed Identity and Service Principal.
You can use [Azure AD Workload Identity Federation](https://docs.microsoft.com/en-us/azure/active-directory/develop/workload-identity-federation) to access Azure managed services like Key Vault **without needing to manage secrets**. You need to configure a trust relationship between your Kubernetes Cluster and Azure AD. This can be done in various ways, for instance using `terraform`, the Azure Portal or the `az` cli. We found the [azwi](https://azure.github.io/azure-workload-identity/docs/installation/azwi.html) cli very helpful. The Azure [Workload Identity Quick Start Guide](https://azure.github.io/azure-workload-identity/docs/quick-start.html) is also good place to get started.
This is basically a two step process:
1. Create a Kubernetes Service Account ([guide](https://azure.github.io/azure-workload-identity/docs/quick-start.html#5-create-a-kubernetes-service-account))
```sh
azwi serviceaccount create phase sa \
--aad-application-name "${APPLICATION_NAME}" \
--service-account-namespace "${SERVICE_ACCOUNT_NAMESPACE}" \
--service-account-name "${SERVICE_ACCOUNT_NAME}"
```
2. Configure the trust relationship between Azure AD and Kubernetes ([guide](https://azure.github.io/azure-workload-identity/docs/quick-start.html#6-establish-federated-identity-credential-between-the-aad-application-and-the-service-account-issuer--subject))
```sh
azwi serviceaccount create phase federated-identity \
--aad-application-name "${APPLICATION_NAME}" \
--service-account-namespace "${SERVICE_ACCOUNT_NAMESPACE}" \
--service-account-name "${SERVICE_ACCOUNT_NAME}" \
--service-account-issuer-url "${SERVICE_ACCOUNT_ISSUER}"
```
With these prerequisites met you can configure `ESO` to use that Service Account. You have two options:
##### Mounted Service Account
You run the controller and mount that particular service account into the pod by adding the label `azure.workload.identity/use: "true"`to the pod. That grants _everyone_ who is able to create a secret store or reference a correctly configured one the ability to read secrets. **This approach is usually not recommended**. But may make sense when you want to share an identity with multiple namespaces. Also see our [Multi-Tenancy Guide](../guides/multi-tenancy.md) for design considerations.
```yaml
{% include 'azkv-workload-identity-mounted.yaml' %}
```
##### Referenced Service Account
You run the controller without service account (effectively without azure permissions). Now you have to configure the SecretStore and set the `serviceAccountRef` and point to the service account you have just created. **This is usually the recommended approach**. It makes sense for everyone who wants to run the controller without Azure permissions and delegate authentication via service accounts in particular namespaces. Also see our [Multi-Tenancy Guide](../guides/multi-tenancy.md) for design considerations.
```yaml
{% include 'azkv-workload-identity.yaml' %}
```
In case you don't have the clientId when deploying the SecretStore, such as when deploying a Helm chart that includes instructions for creating a [Managed Identity](https://github.com/Azure/azure-service-operator/blob/main/v2/samples/managedidentity/v1api20181130/v1api20181130_userassignedidentity.yaml) using [Azure Service Operator](https://azure.github.io/azure-service-operator/) next to the SecretStore definition, you may encounter an interpolation problem. Helm lacks dependency management, which means it can create an issue when the clientId is only known after everything is deployed. Although the Service Account can inject `clientId` and `tenantId` into a pod, it doesn't support secretKeyRef/configMapKeyRef. Therefore, you can deliver the clientId and tenantId directly, bypassing the Service Account.
The following example demonstrates using the secretRef field to directly deliver the `clientId` and `tenantId` to the SecretStore while utilizing Workload Identity authentication.
```yaml
{% include 'azkv-workload-identity-secretref.yaml' %}
```
### Update secret store
Be sure the `azurekv` provider is listed in the `Kind=SecretStore`
```yaml
{% include 'azkv-secret-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `clientId` and `clientSecret` with the namespaces where the secrets reside.
Or in case of Managed Identity authentication:
```yaml
{% include 'azkv-secret-store-mi.yaml' %}
```
### Object Types
Azure Key Vault manages different [object types](https://docs.microsoft.com/en-us/azure/key-vault/general/about-keys-secrets-certificates#object-types), we support `keys`, `secrets` and `certificates`. Simply prefix the key with `key`, `secret` or `cert` to retrieve the desired type (defaults to secret).
| Object Type | Return Value |
| ------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| `secret` | the raw secret value. |
| `key` | A JWK which contains the public key. Azure Key Vault does **not** export the private key. You may want to use [template functions](../guides/templating.md) to transform this JWK into PEM encoded PKIX ASN.1 DER format. |
| `certificate` | The raw CER contents of the x509 certificate. You may want to use [template functions](../guides/templating.md) to transform this into your desired encoding |
### Creating external secret
To create a Kubernetes secret from the Azure Key vault secret a `Kind=ExternalSecret` is needed.
You can manage keys/secrets/certificates saved inside the keyvault , by setting a "/" prefixed type in the secret name, the default type is a `secret`. Other supported values are `cert` and `key`.
```yaml
{% include 'azkv-external-secret.yaml' %}
```
The operator will fetch the Azure Key vault secret and inject it as a `Kind=Secret`. Then the Kubernetes secret can be fetched by issuing:
```sh
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath='{.data.dev-secret-test}' | base64 -d
```
To select all secrets inside the key vault or all tags inside a secret, you can use the `dataFrom` directive:
```yaml
{% include 'azkv-datafrom-external-secret.yaml' %}
```
To get a PKCS#12 certificate from Azure Key Vault and inject it as a `Kind=Secret` of type `kubernetes.io/tls`:
```yaml
{% include 'azkv-pkcs12-cert-external-secret.yaml' %}
```
### Creating a PushSecret
You can push secrets to Azure Key Vault into the different `secret`, `key` and `certificate` APIs.
#### Pushing to a Secret
Pushing to a Secret requires no previous setup. with the secret available in Kubernetes, you can simply refer it to a PushSecret object to have it created on Azure Key Vault:
```yaml
{% include 'azkv-pushsecret-secret.yaml' %}
```
!!! note
In order to create a PushSecret targeting keys, `CreateSecret` and `DeleteSecret` actions must be granted to the Service Principal/Identity configured on the SecretStore.
#### Pushing to a Key
The first step is to generate a valid Private Key. Supported Formats include `PRIVATE KEY`, `RSA PRIVATE KEY` AND `EC PRIVATE KEY` (EC/PKCS1/PKCS8 types). After uploading your key to a Kubernetes Secret, the next step is to create a PushSecret manifest with the following configuration:
```yaml
{% include 'azkv-pushsecret-key.yaml' %}
```
!!! note
In order to create a PushSecret targeting keys, `ImportKey` and `DeleteKey` actions must be granted to the Service Principal/Identity configured on the SecretStore.
#### Pushing to a Certificate
The first step is to generate a valid P12 certificate. Currently, only PKCS1/PKCS8 types are supported. Currently only password-less P12 certificates are supported.
After uploading your P12 certificate to a Kubernetes Secret, the next step is to create a PushSecret manifest with the following configuration
```yaml
{% include 'azkv-pushsecret-certificate.yaml' %}
```
!!! note
In order to create a PushSecret targeting keys, `ImportCertificate` and `DeleteCertificate` actions must be granted to the Service Principal/Identity configured on the SecretStore. | external secrets | aws sm pictures eso az kv azure kv png Azure Key vault External Secrets Operator integrates with Azure Key vault https azure microsoft com en us services key vault for secrets certificates and Keys management Authentication We support authentication with Microsoft Entra identities that can be used as Workload Identity or AAD Pod Identity https azure github io aad pod identity docs as well as with Service Principal credentials Since the AAD Pod Identity https azure github io aad pod identity docs is deprecated it is recommended to use the Workload Identity https azure github io azure workload identity authentication We support connecting to different cloud flavours azure supports PublicCloud USGovernmentCloud ChinaCloud and GermanCloud You have to specify the environmentType and point to the correct cloud flavour This defaults to PublicCloud yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name azure backend spec provider azurekv PublicCloud USGovernmentCloud ChinaCloud GermanCloud environmentType PublicCloud default Minimum required permissions are Get over secret and certificate permissions This can be done by adding a Key Vault access policy sh KUBELET IDENTITY OBJECT ID az aks show resource group AKS CLUSTER RG NAME name AKS CLUSTER NAME query identityProfile kubeletidentity objectId o tsv az keyvault set policy name kv name with certs object id KUBELET IDENTITY OBJECT ID certificate permissions get secret permissions get Service Principal key authentication A service Principal client and Secret is created and the JSON keyfile is stored in a Kind Secret The ClientID and ClientSecret or ClientCertificate in PEM format should be configured for the secret This service principal should have proper access rights to the keyvault to be managed by the operator Managed Identity authentication A Managed Identity should be created in Azure and that Identity should have proper rights to the keyvault to be managed by the operator Use aad pod identity https azure github io aad pod identity docs to assign the identity to external secrets operator To add the selector to external secrets operator use podLabels in your values yaml in case of Helm installation of external secrets If there are multiple Managed Identities for different keyvaults the operator should have been assigned all identities via aad pod identity https azure github io aad pod identity docs then the SecretStore configuration should include the Id of the identity to be used via the identityId field yaml include azkv secret store mi yaml Workload Identity In Microsoft Entra Workload Identity can be Application user assigned Managed Identity and Service Principal You can use Azure AD Workload Identity Federation https docs microsoft com en us azure active directory develop workload identity federation to access Azure managed services like Key Vault without needing to manage secrets You need to configure a trust relationship between your Kubernetes Cluster and Azure AD This can be done in various ways for instance using terraform the Azure Portal or the az cli We found the azwi https azure github io azure workload identity docs installation azwi html cli very helpful The Azure Workload Identity Quick Start Guide https azure github io azure workload identity docs quick start html is also good place to get started This is basically a two step process 1 Create a Kubernetes Service Account guide https azure github io azure workload identity docs quick start html 5 create a kubernetes service account sh azwi serviceaccount create phase sa aad application name APPLICATION NAME service account namespace SERVICE ACCOUNT NAMESPACE service account name SERVICE ACCOUNT NAME 2 Configure the trust relationship between Azure AD and Kubernetes guide https azure github io azure workload identity docs quick start html 6 establish federated identity credential between the aad application and the service account issuer subject sh azwi serviceaccount create phase federated identity aad application name APPLICATION NAME service account namespace SERVICE ACCOUNT NAMESPACE service account name SERVICE ACCOUNT NAME service account issuer url SERVICE ACCOUNT ISSUER With these prerequisites met you can configure ESO to use that Service Account You have two options Mounted Service Account You run the controller and mount that particular service account into the pod by adding the label azure workload identity use true to the pod That grants everyone who is able to create a secret store or reference a correctly configured one the ability to read secrets This approach is usually not recommended But may make sense when you want to share an identity with multiple namespaces Also see our Multi Tenancy Guide guides multi tenancy md for design considerations yaml include azkv workload identity mounted yaml Referenced Service Account You run the controller without service account effectively without azure permissions Now you have to configure the SecretStore and set the serviceAccountRef and point to the service account you have just created This is usually the recommended approach It makes sense for everyone who wants to run the controller without Azure permissions and delegate authentication via service accounts in particular namespaces Also see our Multi Tenancy Guide guides multi tenancy md for design considerations yaml include azkv workload identity yaml In case you don t have the clientId when deploying the SecretStore such as when deploying a Helm chart that includes instructions for creating a Managed Identity https github com Azure azure service operator blob main v2 samples managedidentity v1api20181130 v1api20181130 userassignedidentity yaml using Azure Service Operator https azure github io azure service operator next to the SecretStore definition you may encounter an interpolation problem Helm lacks dependency management which means it can create an issue when the clientId is only known after everything is deployed Although the Service Account can inject clientId and tenantId into a pod it doesn t support secretKeyRef configMapKeyRef Therefore you can deliver the clientId and tenantId directly bypassing the Service Account The following example demonstrates using the secretRef field to directly deliver the clientId and tenantId to the SecretStore while utilizing Workload Identity authentication yaml include azkv workload identity secretref yaml Update secret store Be sure the azurekv provider is listed in the Kind SecretStore yaml include azkv secret store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in clientId and clientSecret with the namespaces where the secrets reside Or in case of Managed Identity authentication yaml include azkv secret store mi yaml Object Types Azure Key Vault manages different object types https docs microsoft com en us azure key vault general about keys secrets certificates object types we support keys secrets and certificates Simply prefix the key with key secret or cert to retrieve the desired type defaults to secret Object Type Return Value secret the raw secret value key A JWK which contains the public key Azure Key Vault does not export the private key You may want to use template functions guides templating md to transform this JWK into PEM encoded PKIX ASN 1 DER format certificate The raw CER contents of the x509 certificate You may want to use template functions guides templating md to transform this into your desired encoding Creating external secret To create a Kubernetes secret from the Azure Key vault secret a Kind ExternalSecret is needed You can manage keys secrets certificates saved inside the keyvault by setting a prefixed type in the secret name the default type is a secret Other supported values are cert and key yaml include azkv external secret yaml The operator will fetch the Azure Key vault secret and inject it as a Kind Secret Then the Kubernetes secret can be fetched by issuing sh kubectl get secret secret to be created n namespace o jsonpath data dev secret test base64 d To select all secrets inside the key vault or all tags inside a secret you can use the dataFrom directive yaml include azkv datafrom external secret yaml To get a PKCS 12 certificate from Azure Key Vault and inject it as a Kind Secret of type kubernetes io tls yaml include azkv pkcs12 cert external secret yaml Creating a PushSecret You can push secrets to Azure Key Vault into the different secret key and certificate APIs Pushing to a Secret Pushing to a Secret requires no previous setup with the secret available in Kubernetes you can simply refer it to a PushSecret object to have it created on Azure Key Vault yaml include azkv pushsecret secret yaml note In order to create a PushSecret targeting keys CreateSecret and DeleteSecret actions must be granted to the Service Principal Identity configured on the SecretStore Pushing to a Key The first step is to generate a valid Private Key Supported Formats include PRIVATE KEY RSA PRIVATE KEY AND EC PRIVATE KEY EC PKCS1 PKCS8 types After uploading your key to a Kubernetes Secret the next step is to create a PushSecret manifest with the following configuration yaml include azkv pushsecret key yaml note In order to create a PushSecret targeting keys ImportKey and DeleteKey actions must be granted to the Service Principal Identity configured on the SecretStore Pushing to a Certificate The first step is to generate a valid P12 certificate Currently only PKCS1 PKCS8 types are supported Currently only password less P12 certificates are supported After uploading your P12 certificate to a Kubernetes Secret the next step is to create a PushSecret manifest with the following configuration yaml include azkv pushsecret certificate yaml note In order to create a PushSecret targeting keys ImportCertificate and DeleteCertificate actions must be granted to the Service Principal Identity configured on the SecretStore |
external secrets External Secret Spec A points to a specific namespace in the target Kubernetes Cluster You are able to retrieve all secrets from that particular namespace given you have the correct set of RBAC permissions This provider supports the use of the field With it you point to the key of the remote secret If you leave it empty it will json encode all key value pairs External Secrets Operator allows to retrieve secrets from a Kubernetes Cluster this can be either a remote cluster or the local one where the operator runs in The reconciler checks if you have read access for secrets in that namespace using See below on how to set that up properly | External Secrets Operator allows to retrieve secrets from a Kubernetes Cluster - this can be either a remote cluster or the local one where the operator runs in.
A `SecretStore` points to a **specific namespace** in the target Kubernetes Cluster. You are able to retrieve all secrets from that particular namespace given you have the correct set of RBAC permissions.
The `SecretStore` reconciler checks if you have read access for secrets in that namespace using `SelfSubjectRulesReview`. See below on how to set that up properly.
### External Secret Spec
This provider supports the use of the `Property` field. With it you point to the key of the remote secret. If you leave it empty it will json encode all key/value pairs.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: database-credentials
spec:
refreshInterval: 1h
secretStoreRef:
kind: SecretStore
name: k8s-store # name of the SecretStore (or kind specified)
target:
name: database-credentials # name of the k8s Secret to be created
data:
- secretKey: username
remoteRef:
key: database-credentials
property: username
- secretKey: password
remoteRef:
key: database-credentials
property: password
# metadataPolicy to fetch all the labels and annotations in JSON format
- secretKey: tags
remoteRef:
metadataPolicy: Fetch
key: database-credentials
# metadataPolicy to fetch all the labels in JSON format
- secretKey: labels
remoteRef:
metadataPolicy: Fetch
key: database-credentials
property: labels
# metadataPolicy to fetch a specific label (dev) from the source secret
- secretKey: developer
remoteRef:
metadataPolicy: Fetch
key: database-credentials
property: labels.dev
```
#### find by tag & name
You can fetch secrets based on labels or names matching a regexp:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: fetch-tls-and-nginx
spec:
refreshInterval: 1h
secretStoreRef:
kind: SecretStore
name: k8s-store
target:
name: fetch-tls-and-nginx
dataFrom:
- find:
name:
# match secret name with regexp
regexp: "tls-.*"
- find:
tags:
# fetch secrets based on label combination
app: "nginx"
```
### Target API-Server Configuration
The servers `url` can be omitted and defaults to `kubernetes.default`. You **have to** provide a CA certificate in order to connect to the API Server securely.
For your convenience, each namespace has a ConfigMap `kube-root-ca.crt` that contains the CA certificate of the internal API Server (see `RootCAConfigMap` [feature gate](https://kubernetes.io/docs/reference/command-line-tools-reference/feature-gates/)).
Use that if you want to connect to the same API server.
If you want to connect to a remote API Server you need to fetch it and store it inside the cluster as ConfigMap or Secret.
You may also define it inline as base64 encoded value using the `caBundle` property.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: k8s-store-default-ns
spec:
provider:
kubernetes:
# with this, the store is able to pull only from `default` namespace
remoteNamespace: default
server:
url: "https://myapiserver.tld"
caProvider:
type: ConfigMap
name: kube-root-ca.crt
key: ca.crt
```
### Authentication
It's possible to authenticate against the Kubernetes API using client certificates, a bearer token or service account. The operator enforces that exactly one authentication method is used. You can not use the service account that is mounted inside the operator, this is by design to avoid reading secrets across namespaces.
**NOTE:** `SelfSubjectRulesReview` permission is required in order to validation work properly. Please use the following role as reference:
```yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
namespace: default
name: eso-store-role
rules:
- apiGroups: [""]
resources:
- secrets
verbs:
- get
- list
- watch
- apiGroups:
- authorization.k8s.io
resources:
- selfsubjectrulesreviews
verbs:
- create
```
#### Authenticating with BearerToken
Create a Kubernetes secret with a client token. There are many ways to acquire such a token, please refer to the [Kubernetes Authentication docs](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#authentication-strategies).
```yaml
apiVersion: v1
kind: Secret
metadata:
name: my-token
data:
token: "...."
```
Create a SecretStore: The `auth` section indicates that the type `token` will be used for authentication, it includes the path to fetch the token. Set `remoteNamespace` to the name of the namespace where your target secrets reside.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: k8s-store-token-auth
spec:
provider:
kubernetes:
# with this, the store is able to pull only from `default` namespace
remoteNamespace: default
server:
# ...
auth:
token:
bearerToken:
name: my-token
key: token
```
#### Authenticating with ServiceAccount
Create a Kubernetes Service Account, please refer to the [Service Account Tokens Documentation](https://kubernetes.io/docs/reference/access-authn-authz/authentication/#service-account-tokens) on how they work and how to create them.
```
$ kubectl create serviceaccount my-store
```
This Service Account needs permissions to read `Secret` and create `SelfSubjectRulesReview` resources. Please see the above role.
```
$ kubectl create rolebinding my-store --role=eso-store-role --serviceaccount=default:my-store
```
Create a SecretStore: the `auth` section indicates that the type `serviceAccount` will be used for authentication.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: k8s-store-sa-auth
spec:
provider:
kubernetes:
# with this, the store is able to pull only from `default` namespace
remoteNamespace: default
server:
# ...
auth:
serviceAccount:
name: "my-store"
```
#### Authenticating with Client Certificates
Create a Kubernetes secret which contains the client key and certificate. See [Generate Certificates Documentations](https://kubernetes.io/docs/tasks/administer-cluster/certificates/) on how to create them.
```
$ kubectl create secret tls tls-secret --cert=path/to/tls.cert --key=path/to/tls.key
```
Reference the `tls-secret` in the SecretStore
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: k8s-store-cert-auth
spec:
provider:
kubernetes:
# with this, the store is able to pull only from `default` namespace
remoteNamespace: default
server:
# ...
auth:
cert:
clientCert:
name: "tls-secret"
key: "tls.crt"
clientKey:
name: "tls-secret"
key: "tls.key"
```
### PushSecret
The PushSecret functionality facilitates the replication of a Kubernetes Secret from one namespace or cluster to another. This feature proves useful in scenarios where you need to share sensitive information, such as credentials or configuration data, across different parts of your infrastructure.
To configure the PushSecret resource, you need to specify the following parameters:
* **Selector**: Specify the selector that identifies the source Secret to be replicated. This selector allows you to target the specific Secret you want to share.
* **SecretKey**: Set the SecretKey parameter to indicate the key within the source Secret that you want to replicate. This ensures that only the relevant information is shared.
* **RemoteRef.Property**: In addition to the above parameters, the Kubernetes provider requires you to set the `remoteRef.property` field. This field specifies the key of the remote Secret resource where the replicated value should be stored.
Here's an example:
```yaml
apiVersion: external-secrets.io/v1alpha1
kind: PushSecret
metadata:
name: example
spec:
refreshInterval: 1h
secretStoreRefs:
- name: k8s-store-remote-ns
kind: SecretStore
selector:
secret:
name: pokedex-credentials
data:
- match:
secretKey: best-pokemon
remoteRef:
remoteKey: remote-best-pokemon
property: best-pokemon
```
To utilize the PushSecret feature effectively, the referenced `SecretStore` requires specific permissions on the target cluster. In particular it requires `create`, `read`, `update` and `delete` permissions on the Secret resource:
```yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
namespace: remote
name: eso-store-push-role
rules:
- apiGroups: [""]
resources:
- secrets
verbs:
- get
- list
- watch
- create
- update
- patch
- delete
- apiGroups:
- authorization.k8s.io
resources:
- selfsubjectrulesreviews
verbs:
- create
```
#### PushSecret Metadata
The Kubernetes provider is able to manage both `metadata.labels` and `metadata.annotations` of the secret on the target cluster.
Users have different preferences on what metadata should be pushed. ESO by default pushes both labels and annotations to the target secret and merges them with the existing metadata.
You can specify the metadata in the `spec.template.metadata` section if you want to decouple it from the existing secret.
```yaml
{% raw %}
apiVersion: external-secrets.io/v1alpha1
kind: PushSecret
metadata:
name: example
spec:
# ...
template:
metadata:
labels:
app.kubernetes.io/part-of: argocd
data:
mysql_connection_string: "mysql://:3306/"
data:
- match:
secretKey: mysql_connection_string
remoteRef:
remoteKey: backend_secrets
property: mysql_connection_string
{% endraw %}
```
Further, you can leverage the `.data[].metadata` section to fine-tine the behaviour of the metadata merge strategy. The metadata section is a versioned custom-resource _alike_ structure, the behaviour is detailed below.
```yaml
apiVersion: external-secrets.io/v1alpha1
kind: PushSecret
metadata:
name: example
spec:
# ...
data:
- match:
secretKey: example-1
remoteRef:
remoteKey: example-remote-secret
property: url
metadata:
apiVersion: kubernetes.external-secrets.io/v1alpha1
kind: PushSecretMetadata
spec:
sourceMergePolicy: Merge # or Replace
targetMergePolicy: Merge # or Replace / Ignore
labels:
color: red
annotations:
yes: please
```
| Field | Type | Description |
| ----------------- | ------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| sourceMergePolicy | string: `Merge`, `Replace` | The sourceMergePolicy defines how the metadata of the source secret is merged. `Merge` will merge the metadata of the source secret with the metadata defined in `.data[].metadata`. With `Replace`, the metadata in `.data[].metadata` replaces the source metadata. |
| targetMergePolicy | string: `Merge`, `Replace`, `Ignore` | The targetMergePolicy defines how ESO merges the metadata produced by the sourceMergePolicy with the target secret. With `Merge`, the source metadata is merged with the existing metadata from the target secret. `Replace` will replace the target metadata with the metadata defined in the source. `Ignore` leaves the target metadata as is. |
| labels | `map[string]string` | The labels. |
| annotations | `map[string]string` | The annotations. |
#### Implementation Considerations
When utilizing the PushSecret feature and configuring the permissions for the SecretStore, consider the following:
* **RBAC Configuration**: Ensure that the Role-Based Access Control (RBAC) configuration for the SecretStore grants the appropriate permissions for creating, reading, and updating resources in the target cluster.
* **Least Privilege Principle**: Adhere to the principle of least privilege when assigning permissions to the SecretStore. Only provide the minimum required permissions to accomplish the desired synchronization between Secrets.
* **Namespace or Cluster Scope**: Depending on your specific requirements, configure the SecretStore to operate at the desired scope, whether it is limited to a specific namespace or encompasses the entire cluster. Consider the security and access control implications of your chosen scope. | external secrets | External Secrets Operator allows to retrieve secrets from a Kubernetes Cluster this can be either a remote cluster or the local one where the operator runs in A SecretStore points to a specific namespace in the target Kubernetes Cluster You are able to retrieve all secrets from that particular namespace given you have the correct set of RBAC permissions The SecretStore reconciler checks if you have read access for secrets in that namespace using SelfSubjectRulesReview See below on how to set that up properly External Secret Spec This provider supports the use of the Property field With it you point to the key of the remote secret If you leave it empty it will json encode all key value pairs yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name database credentials spec refreshInterval 1h secretStoreRef kind SecretStore name k8s store name of the SecretStore or kind specified target name database credentials name of the k8s Secret to be created data secretKey username remoteRef key database credentials property username secretKey password remoteRef key database credentials property password metadataPolicy to fetch all the labels and annotations in JSON format secretKey tags remoteRef metadataPolicy Fetch key database credentials metadataPolicy to fetch all the labels in JSON format secretKey labels remoteRef metadataPolicy Fetch key database credentials property labels metadataPolicy to fetch a specific label dev from the source secret secretKey developer remoteRef metadataPolicy Fetch key database credentials property labels dev find by tag name You can fetch secrets based on labels or names matching a regexp yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name fetch tls and nginx spec refreshInterval 1h secretStoreRef kind SecretStore name k8s store target name fetch tls and nginx dataFrom find name match secret name with regexp regexp tls find tags fetch secrets based on label combination app nginx Target API Server Configuration The servers url can be omitted and defaults to kubernetes default You have to provide a CA certificate in order to connect to the API Server securely For your convenience each namespace has a ConfigMap kube root ca crt that contains the CA certificate of the internal API Server see RootCAConfigMap feature gate https kubernetes io docs reference command line tools reference feature gates Use that if you want to connect to the same API server If you want to connect to a remote API Server you need to fetch it and store it inside the cluster as ConfigMap or Secret You may also define it inline as base64 encoded value using the caBundle property yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name k8s store default ns spec provider kubernetes with this the store is able to pull only from default namespace remoteNamespace default server url https myapiserver tld caProvider type ConfigMap name kube root ca crt key ca crt Authentication It s possible to authenticate against the Kubernetes API using client certificates a bearer token or service account The operator enforces that exactly one authentication method is used You can not use the service account that is mounted inside the operator this is by design to avoid reading secrets across namespaces NOTE SelfSubjectRulesReview permission is required in order to validation work properly Please use the following role as reference yaml apiVersion rbac authorization k8s io v1 kind Role metadata namespace default name eso store role rules apiGroups resources secrets verbs get list watch apiGroups authorization k8s io resources selfsubjectrulesreviews verbs create Authenticating with BearerToken Create a Kubernetes secret with a client token There are many ways to acquire such a token please refer to the Kubernetes Authentication docs https kubernetes io docs reference access authn authz authentication authentication strategies yaml apiVersion v1 kind Secret metadata name my token data token Create a SecretStore The auth section indicates that the type token will be used for authentication it includes the path to fetch the token Set remoteNamespace to the name of the namespace where your target secrets reside yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name k8s store token auth spec provider kubernetes with this the store is able to pull only from default namespace remoteNamespace default server auth token bearerToken name my token key token Authenticating with ServiceAccount Create a Kubernetes Service Account please refer to the Service Account Tokens Documentation https kubernetes io docs reference access authn authz authentication service account tokens on how they work and how to create them kubectl create serviceaccount my store This Service Account needs permissions to read Secret and create SelfSubjectRulesReview resources Please see the above role kubectl create rolebinding my store role eso store role serviceaccount default my store Create a SecretStore the auth section indicates that the type serviceAccount will be used for authentication yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name k8s store sa auth spec provider kubernetes with this the store is able to pull only from default namespace remoteNamespace default server auth serviceAccount name my store Authenticating with Client Certificates Create a Kubernetes secret which contains the client key and certificate See Generate Certificates Documentations https kubernetes io docs tasks administer cluster certificates on how to create them kubectl create secret tls tls secret cert path to tls cert key path to tls key Reference the tls secret in the SecretStore yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name k8s store cert auth spec provider kubernetes with this the store is able to pull only from default namespace remoteNamespace default server auth cert clientCert name tls secret key tls crt clientKey name tls secret key tls key PushSecret The PushSecret functionality facilitates the replication of a Kubernetes Secret from one namespace or cluster to another This feature proves useful in scenarios where you need to share sensitive information such as credentials or configuration data across different parts of your infrastructure To configure the PushSecret resource you need to specify the following parameters Selector Specify the selector that identifies the source Secret to be replicated This selector allows you to target the specific Secret you want to share SecretKey Set the SecretKey parameter to indicate the key within the source Secret that you want to replicate This ensures that only the relevant information is shared RemoteRef Property In addition to the above parameters the Kubernetes provider requires you to set the remoteRef property field This field specifies the key of the remote Secret resource where the replicated value should be stored Here s an example yaml apiVersion external secrets io v1alpha1 kind PushSecret metadata name example spec refreshInterval 1h secretStoreRefs name k8s store remote ns kind SecretStore selector secret name pokedex credentials data match secretKey best pokemon remoteRef remoteKey remote best pokemon property best pokemon To utilize the PushSecret feature effectively the referenced SecretStore requires specific permissions on the target cluster In particular it requires create read update and delete permissions on the Secret resource yaml apiVersion rbac authorization k8s io v1 kind Role metadata namespace remote name eso store push role rules apiGroups resources secrets verbs get list watch create update patch delete apiGroups authorization k8s io resources selfsubjectrulesreviews verbs create PushSecret Metadata The Kubernetes provider is able to manage both metadata labels and metadata annotations of the secret on the target cluster Users have different preferences on what metadata should be pushed ESO by default pushes both labels and annotations to the target secret and merges them with the existing metadata You can specify the metadata in the spec template metadata section if you want to decouple it from the existing secret yaml raw apiVersion external secrets io v1alpha1 kind PushSecret metadata name example spec template metadata labels app kubernetes io part of argocd data mysql connection string mysql 3306 data match secretKey mysql connection string remoteRef remoteKey backend secrets property mysql connection string endraw Further you can leverage the data metadata section to fine tine the behaviour of the metadata merge strategy The metadata section is a versioned custom resource alike structure the behaviour is detailed below yaml apiVersion external secrets io v1alpha1 kind PushSecret metadata name example spec data match secretKey example 1 remoteRef remoteKey example remote secret property url metadata apiVersion kubernetes external secrets io v1alpha1 kind PushSecretMetadata spec sourceMergePolicy Merge or Replace targetMergePolicy Merge or Replace Ignore labels color red annotations yes please Field Type Description sourceMergePolicy string Merge Replace The sourceMergePolicy defines how the metadata of the source secret is merged Merge will merge the metadata of the source secret with the metadata defined in data metadata With Replace the metadata in data metadata replaces the source metadata targetMergePolicy string Merge Replace Ignore The targetMergePolicy defines how ESO merges the metadata produced by the sourceMergePolicy with the target secret With Merge the source metadata is merged with the existing metadata from the target secret Replace will replace the target metadata with the metadata defined in the source Ignore leaves the target metadata as is labels map string string The labels annotations map string string The annotations Implementation Considerations When utilizing the PushSecret feature and configuring the permissions for the SecretStore consider the following RBAC Configuration Ensure that the Role Based Access Control RBAC configuration for the SecretStore grants the appropriate permissions for creating reading and updating resources in the target cluster Least Privilege Principle Adhere to the principle of least privilege when assigning permissions to the SecretStore Only provide the minimum required permissions to accomplish the desired synchronization between Secrets Namespace or Cluster Scope Depending on your specific requirements configure the SecretStore to operate at the desired scope whether it is limited to a specific namespace or encompasses the entire cluster Consider the security and access control implications of your chosen scope |
external secrets Important note about this documentation External Secrets Operator integrates with for secret management 1Password Secrets Automation The 1Password API calls the entries in vaults Items These docs use the same term Behavior How an Item is equated to an ExternalSecret is equated to an Item s Title | ## 1Password Secrets Automation
External Secrets Operator integrates with [1Password Secrets Automation](https://1password.com/products/secrets/) for secret management.
### Important note about this documentation
_**The 1Password API calls the entries in vaults 'Items'. These docs use the same term.**_
### Behavior
* How an Item is equated to an ExternalSecret:
* `remoteRef.key` is equated to an Item's Title
* `remoteRef.property` is equated to:
* An Item's field's Label (Password type)
* An Item's file's Name (Document type)
* If empty, defaults to the first file name, or the field labeled `password`
* `remoteRef.version` is currently not supported.
* One Item in a vault can equate to one Kubernetes Secret to keep things easy to comprehend.
* Support for 1Password secret types of `Password` and `Document`.
* The `Password` type can get data from multiple `fields` in the Item.
* The `Document` type can get data from files.
* See [creating 1Password Items compatible with ExternalSecrets](#creating-compatible-1password-items).
* Ordered vaults
* Specify an ordered list of vaults in a SecretStore and the value will be sourced from the first vault with a matching Item.
* If no matching Item is found, an error is returned.
* This supports having a default or shared set of values that can also be overriden for specific environments.
* `dataFrom`:
* `find.path` is equated to Item Title.
* `find.name.regexp` is equated to field Labels.
* `find.tags` are not supported at this time.
### Prerequisites
* 1Password requires running a 1Password Connect Server to which the API requests will be made.
* External Secrets does not run this server. See [Deploy a Connect Server](#deploy-a-connect-server).
* One Connect Server is needed per 1Password Automation Environment.
* Many Vaults can be added to an Automation Environment, and Tokens can be generated in that Environment with access to any set or subset of those Vaults.
* 1Password Connect Server version 1.5.6 or higher.
### Setup Authentication
_Authentication requires a `1password-credentials.json` file provided to the Connect Server, and a related 'Access Token' for the client in this provider to authenticate to that Connect Server. Both of these are generated by 1Password._
1. Setup an Automation Environment [at 1Password.com](https://support.1password.com/secrets-automation/), or [via the op CLI](https://github.com/1Password/connect/blob/a0a5f3d92e68497098d9314721335a7bb68a3b2d/README.md#create-server-and-access-token).
* Note: don't be confused by the `op connect server create` syntax. This will create an Automation Environment in 1Password, and corresponding credentials for a Connect Server, nothing more.
* This will result in a `1password-credentials.json` file to provide to a Connect Server Deployment, and an Access Token to provide as a Secret referenced by a `SecretStore` or `ClusterSecretStore`.
1. Create a Kubernetes secret with the Access Token
```yaml
{% include '1password-token-secret.yaml' %}
```
1. Reference the secret in a SecretStore or ClusterSecretStore
```yaml
{% include '1password-secret-store.yaml' %}
```
1. Create a Kubernetes secret with the Connect Server credentials
```yaml
{% include '1password-connect-server-secret.yaml' %}
```
1. Reference the secret in a Connect Server Deployment
```yaml
{% include '1password-connect-server-deployment.yaml' %}
```
### Deploy a Connect Server
* Follow the remaining instructions in the [Quick Start guide](https://github.com/1Password/connect/blob/a0a5f3d92e68497098d9314721335a7bb68a3b2d/README.md#quick-start).
* Deploy at minimum a Deployment and Service for a Connect Server, to go along with the Secret for the Server created in the [Setup Authentication section](#setup-authentication).
* The Service's name will be referenced in SecretStores/ClusterSecretStores.
* Keep in mind the likely need for additional Connect Servers for other Automation Environments when naming objects. For example dev, staging, prod, etc.
* Unencrypted secret values are passed over the connection between the Operator and the Connect Server. **Encrypting the connection is recommended.**
### Creating Compatible 1Password Items
_Also see [examples below](#examples) for matching SecretStore and ExternalSecret specs._
#### Manually (Password type)
1. Click the plus button to create a new Password type Item.
1. Change the title to what you want `remoteRef.key` to be.
1. Set what you want `remoteRef.property` to be in the field sections where is says 'label', and values where it says 'new field'.
1. Click the 'Save' button.
![create-password-screenshot](../pictures/screenshot_1password_create_password.png)
#### Manually (Document type)
* Click the plus button to create a new Document type Item.
* Choose the file to upload and upload it.
* Change the title to match `remoteRef.key`
* Click the 'Add New File' button to add more files.
* Click the 'Save' button.
![create-document-screenshot](../pictures/screenshot_1password_create_document.png)
#### Scripting (Password type with op [CLI](https://developer.1password.com/docs/cli/v1/get-started/))
* Create `file.json` with the following contents, swapping in your keys and values. Note: `section.name`'s and `section.title`'s values are ignored by the Operator, but cannot be empty for the `op` CLI
```json
{
"title": "my-title",
"vault": {
"id": "vault-id"
},
"category": "LOGIN",
"fields": [
{
"id": "username",
"type": "STRING",
"purpose": "USERNAME",
"label": "username",
"value": "a-username"
},
{
"id": "password",
"type": "CONCEALED",
"purpose": "PASSWORD",
"label": "password",
"password_details": {
"strength": "TERRIBLE"
},
"value": "a-password"
},
{
"id": "notesPlain",
"type": "STRING",
"purpose": "NOTES",
"label": "notesPlain",
"value": "notesPlain"
},
{
"id": "customField",
"type": "CONCEALED",
"purpose": "custom",
"label": "custom",
"value": "custom-value"
}
]
}
```
* Run `op item create --template file.json`
#### Scripting (Document type)
* Unfortunately the `op` CLI doesn't seem to support uploading multiple files to the same Item, and the current Go lib has a [bug](https://github.com/1Password/connect-sdk-go/issues/45). `op` can be used to create a Document type Item with one file in it, but for now it's necessary to add multiple files to the same Document via the GUI.
#### In-built field labeled `password` on Password type Items
* TL;DR if you need a field labeled `password`, use the in-built one rather than the one in a fields Section.
![password-field-example](../pictures/screenshot_1password_password_field.png)
* 1Password automatically adds a field labeled `password` on every Password type Item, whether it's created through a GUI or the API or `op` CLI.
* There's no problem with using this field just like any other field, _just make sure you don't end up with two fields with the same label_. (For example, by automating the `op` CLI to create Items.)
* The in-built `password` field is not otherwise special for the purposes of ExternalSecrets. It can be ignored when not in use.
### Examples
Examples of using the `my-env-config` and `my-cert` Items [seen above](#manually-password-type).
* Note: with this configuration a 1Password Item titled `my-env-config` is correlated to a ExternalSecret named `my-env-config` that results in a Kubernetes secret named `my-env-config`, all with matching names for the key/value pairs. This is a way to increase comprehensibility.
```yaml
{% include '1password-secret-store.yaml' %}
```
```yaml
{% include '1password-external-secret-my-env-config.yaml' %}
```
```yaml
{% include '1password-external-secret-my-cert.yaml' %}
```
### Additional Notes
#### General
* It's intuitive to use Document type Items for Kubernetes secrets mounted as files, and Password type Items for ones that will be mounted as environment variables, but either can be used for either. It comes down to what's more convenient.
#### Why no version history
* 1Password only supports version history on their in-built `password` field. Therefore, implementing version history in this provider would require one Item in 1Password per `remoteRef` in an ExternalSecret. Additionally `remoteRef.property` would be pointless/unusable.
* For example, a Kubernetes secret with 15 keys (say, used in `envFrom`,) would require 15 Items in the 1Password vault, instead of 15 Fields in 1 Item. This would quickly get untenable for more than a few secrets, because:
* All Items would have to have unique names which means `secretKey` couldn't match the Item name the `remoteRef` is targeting.
* Maintenance, particularly clean up of no longer used secrets, would be significantly more work.
* A vault would often become a huge list of unorganized entries as opposed to a much smaller list organized by Kubernetes Secret.
* To support new and old versions of a secret value at the same time, create a new Item in 1Password with the new value, and point some ExternalSecrets at a time to the new Item.
#### Keeping misconfiguration from working
* One instance of the ExternalSecrets Operator _can_ work with many Connect Server instances, but it may not be the best approach.
* With one Operator instance per Connect Server instance, namespaces and RBAC can be used to improve security posture, and perhaps just as importantly, it's harder to misconfigure something and have it work (supply env A's secret values to env B for example.)
* You can run as many 1Password Connect Servers as you need security boundaries to help protect against accidental misconfiguration.
#### Patching ExternalSecrets with Kustomize
* An overlay can provide a SecretStore specific to that overlay, and then use JSON6902 to patch all the ExternalSecrets coming from base to point to that SecretStore. Here's an example `overlays/staging/kustomization.yaml`:
```yaml
---
apiVersion: kustomize.config.k8s.io/v1beta1
kind: Kustomization
resources:
- ../../base/something-with-external-secrets
- secretStore.staging.yaml
patchesJson6902:
- target:
kind: ExternalSecret
name: ".*"
patch: |-
- op: replace
path: /spec/secretStoreRef/name
value: staging
``` | external secrets | 1Password Secrets Automation External Secrets Operator integrates with 1Password Secrets Automation https 1password com products secrets for secret management Important note about this documentation The 1Password API calls the entries in vaults Items These docs use the same term Behavior How an Item is equated to an ExternalSecret remoteRef key is equated to an Item s Title remoteRef property is equated to An Item s field s Label Password type An Item s file s Name Document type If empty defaults to the first file name or the field labeled password remoteRef version is currently not supported One Item in a vault can equate to one Kubernetes Secret to keep things easy to comprehend Support for 1Password secret types of Password and Document The Password type can get data from multiple fields in the Item The Document type can get data from files See creating 1Password Items compatible with ExternalSecrets creating compatible 1password items Ordered vaults Specify an ordered list of vaults in a SecretStore and the value will be sourced from the first vault with a matching Item If no matching Item is found an error is returned This supports having a default or shared set of values that can also be overriden for specific environments dataFrom find path is equated to Item Title find name regexp is equated to field Labels find tags are not supported at this time Prerequisites 1Password requires running a 1Password Connect Server to which the API requests will be made External Secrets does not run this server See Deploy a Connect Server deploy a connect server One Connect Server is needed per 1Password Automation Environment Many Vaults can be added to an Automation Environment and Tokens can be generated in that Environment with access to any set or subset of those Vaults 1Password Connect Server version 1 5 6 or higher Setup Authentication Authentication requires a 1password credentials json file provided to the Connect Server and a related Access Token for the client in this provider to authenticate to that Connect Server Both of these are generated by 1Password 1 Setup an Automation Environment at 1Password com https support 1password com secrets automation or via the op CLI https github com 1Password connect blob a0a5f3d92e68497098d9314721335a7bb68a3b2d README md create server and access token Note don t be confused by the op connect server create syntax This will create an Automation Environment in 1Password and corresponding credentials for a Connect Server nothing more This will result in a 1password credentials json file to provide to a Connect Server Deployment and an Access Token to provide as a Secret referenced by a SecretStore or ClusterSecretStore 1 Create a Kubernetes secret with the Access Token yaml include 1password token secret yaml 1 Reference the secret in a SecretStore or ClusterSecretStore yaml include 1password secret store yaml 1 Create a Kubernetes secret with the Connect Server credentials yaml include 1password connect server secret yaml 1 Reference the secret in a Connect Server Deployment yaml include 1password connect server deployment yaml Deploy a Connect Server Follow the remaining instructions in the Quick Start guide https github com 1Password connect blob a0a5f3d92e68497098d9314721335a7bb68a3b2d README md quick start Deploy at minimum a Deployment and Service for a Connect Server to go along with the Secret for the Server created in the Setup Authentication section setup authentication The Service s name will be referenced in SecretStores ClusterSecretStores Keep in mind the likely need for additional Connect Servers for other Automation Environments when naming objects For example dev staging prod etc Unencrypted secret values are passed over the connection between the Operator and the Connect Server Encrypting the connection is recommended Creating Compatible 1Password Items Also see examples below examples for matching SecretStore and ExternalSecret specs Manually Password type 1 Click the plus button to create a new Password type Item 1 Change the title to what you want remoteRef key to be 1 Set what you want remoteRef property to be in the field sections where is says label and values where it says new field 1 Click the Save button create password screenshot pictures screenshot 1password create password png Manually Document type Click the plus button to create a new Document type Item Choose the file to upload and upload it Change the title to match remoteRef key Click the Add New File button to add more files Click the Save button create document screenshot pictures screenshot 1password create document png Scripting Password type with op CLI https developer 1password com docs cli v1 get started Create file json with the following contents swapping in your keys and values Note section name s and section title s values are ignored by the Operator but cannot be empty for the op CLI json title my title vault id vault id category LOGIN fields id username type STRING purpose USERNAME label username value a username id password type CONCEALED purpose PASSWORD label password password details strength TERRIBLE value a password id notesPlain type STRING purpose NOTES label notesPlain value notesPlain id customField type CONCEALED purpose custom label custom value custom value Run op item create template file json Scripting Document type Unfortunately the op CLI doesn t seem to support uploading multiple files to the same Item and the current Go lib has a bug https github com 1Password connect sdk go issues 45 op can be used to create a Document type Item with one file in it but for now it s necessary to add multiple files to the same Document via the GUI In built field labeled password on Password type Items TL DR if you need a field labeled password use the in built one rather than the one in a fields Section password field example pictures screenshot 1password password field png 1Password automatically adds a field labeled password on every Password type Item whether it s created through a GUI or the API or op CLI There s no problem with using this field just like any other field just make sure you don t end up with two fields with the same label For example by automating the op CLI to create Items The in built password field is not otherwise special for the purposes of ExternalSecrets It can be ignored when not in use Examples Examples of using the my env config and my cert Items seen above manually password type Note with this configuration a 1Password Item titled my env config is correlated to a ExternalSecret named my env config that results in a Kubernetes secret named my env config all with matching names for the key value pairs This is a way to increase comprehensibility yaml include 1password secret store yaml yaml include 1password external secret my env config yaml yaml include 1password external secret my cert yaml Additional Notes General It s intuitive to use Document type Items for Kubernetes secrets mounted as files and Password type Items for ones that will be mounted as environment variables but either can be used for either It comes down to what s more convenient Why no version history 1Password only supports version history on their in built password field Therefore implementing version history in this provider would require one Item in 1Password per remoteRef in an ExternalSecret Additionally remoteRef property would be pointless unusable For example a Kubernetes secret with 15 keys say used in envFrom would require 15 Items in the 1Password vault instead of 15 Fields in 1 Item This would quickly get untenable for more than a few secrets because All Items would have to have unique names which means secretKey couldn t match the Item name the remoteRef is targeting Maintenance particularly clean up of no longer used secrets would be significantly more work A vault would often become a huge list of unorganized entries as opposed to a much smaller list organized by Kubernetes Secret To support new and old versions of a secret value at the same time create a new Item in 1Password with the new value and point some ExternalSecrets at a time to the new Item Keeping misconfiguration from working One instance of the ExternalSecrets Operator can work with many Connect Server instances but it may not be the best approach With one Operator instance per Connect Server instance namespaces and RBAC can be used to improve security posture and perhaps just as importantly it s harder to misconfigure something and have it work supply env A s secret values to env B for example You can run as many 1Password Connect Servers as you need security boundaries to help protect against accidental misconfiguration Patching ExternalSecrets with Kustomize An overlay can provide a SecretStore specific to that overlay and then use JSON6902 to patch all the ExternalSecrets coming from base to point to that SecretStore Here s an example overlays staging kustomization yaml yaml apiVersion kustomize config k8s io v1beta1 kind Kustomization resources base something with external secrets secretStore staging yaml patchesJson6902 target kind ExternalSecret name patch op replace path spec secretStoreRef name value staging |
external secrets senhasegura DevOps Secrets Management DSM External Secrets Operator integrates with module to sync application secrets to secrets held on the Kubernetes cluster Authentication Authentication in senhasegura uses DevOps Secrets Management DSM application authorization schema | ## senhasegura DevOps Secrets Management (DSM)
External Secrets Operator integrates with [senhasegura](https://senhasegura.com/) [DevOps Secrets Management (DSM)](https://senhasegura.com/devops) module to sync application secrets to secrets held on the Kubernetes cluster.
---
## Authentication
Authentication in senhasegura uses DevOps Secrets Management (DSM) application authorization schema
You need to create an Kubernetes Secret with desired auth parameters, for example:
Instructions to setup authorizations and secrets in senhasegura DSM can be found at [senhasegura docs for DSM](https://helpcenter.senhasegura.io/docs/3.22/dsm) and [senhasegura YouTube channel](https://www.youtube.com/channel/UCpDms35l3tcrfb8kZSpeNYw/search?query=DSM%2C%20en-US)
```yaml
{% include 'senhasegura-dsm-secret.yaml' %}
```
---
## Examples
To sync secrets between senhasegura and Kubernetes with External Secrets, we need to define an SecretStore or ClusterSecretStore resource with senhasegura provider, setting authentication in DSM module with Secret defined before
### SecretStore
``` yaml
{% include 'senhasegura-dsm-secretstore.yaml' %}
```
### ClusterSecretStore
``` yaml
{% include 'senhasegura-dsm-clustersecretstore.yaml' %}
```
---
## Syncing secrets
In examples below, consider that three secrets (api-settings, db-settings and hsm-settings) are defined in senhasegura DSM
---
**Secret Identifier: ** api-settings
**Secret data:**
```bash
URL=https://example.com/api/example
TOKEN=example-token-value
```
---
**Secret Identifier: ** db-settings
**Secret data:**
```bash
DB_HOST='db.example'
DB_PORT='5432'
DB_USERNAME='example'
DB_PASSWORD='example'
```
---
**Secret Identifier: ** hsm-settings
**Secret data:**
```bash
HSM_ADDRESS='hsm.example'
HSM_PORT='9223'
```
---
### Sync DSM secrets using Secret Identifiers
You can fetch all key/value pairs for a given secret identifier If you leave the remoteRef.property empty. This returns the json-encoded secret value for that path.
If you only need a specific key, you can select it using remoteRef.property as the key name.
In this method, you can overwrites data name in Kubernetes Secret object (e.g API_SETTINGS and API_SETTINGS_TOKEN)
``` yaml
{% include 'senhasegura-dsm-external-secret-single.yaml' %}
```
Kubernetes Secret will be create with follow `.data.X`
```bash
API_SETTINGS='[{"TOKEN":"example-token-value","URL":"https://example.com/api/example"}]'
API_SETTINGS_TOKEN='example-token-value'
```
---
### Sync DSM secrets using Secret Identifiers with automatically name assignments
If your app requires multiples secrets, it is not required to create multiple ExternalSecret resources, you can aggregate secrets using a single ExternalSecret resource
In this method, every secret data in senhasegura creates an Kubernetes Secret `.data.X` field
``` yaml
{% include 'senhasegura-dsm-external-secret-multiple.yaml' %}
```
Kubernetes Secret will be create with follow `.data.X`
```bash
URL='https://example.com/api/example'
TOKEN='example-token-value'
DB_HOST='db.example'
DB_PORT='5432'
DB_USERNAME='example'
DB_PASSWORD='example'
```
<!-- https://github.com/external-secrets/external-secrets/pull/830#discussion_r858657107 -->
<!-- ### Sync all secrets from DSM authorization
You can sync all secrets that your authorization in DSM has using find, in a future release you will be able to filter secrets by name, path or tags
``` yaml
{% include 'senhasegura-dsm-external-secret-all.yaml' %}
```
Kubernetes Secret will be create with follow `.data.X`
```bash
URL='https://example.com/api/example'
TOKEN='example-token-value'
DB_HOST='db.example'
DB_PORT='5432'
DB_USERNAME='example'
DB_PASSWORD='example'
HSM_ADDRESS='hsm.example'
HSM_PORT='9223'
``` --> | external secrets | senhasegura DevOps Secrets Management DSM External Secrets Operator integrates with senhasegura https senhasegura com DevOps Secrets Management DSM https senhasegura com devops module to sync application secrets to secrets held on the Kubernetes cluster Authentication Authentication in senhasegura uses DevOps Secrets Management DSM application authorization schema You need to create an Kubernetes Secret with desired auth parameters for example Instructions to setup authorizations and secrets in senhasegura DSM can be found at senhasegura docs for DSM https helpcenter senhasegura io docs 3 22 dsm and senhasegura YouTube channel https www youtube com channel UCpDms35l3tcrfb8kZSpeNYw search query DSM 2C 20en US yaml include senhasegura dsm secret yaml Examples To sync secrets between senhasegura and Kubernetes with External Secrets we need to define an SecretStore or ClusterSecretStore resource with senhasegura provider setting authentication in DSM module with Secret defined before SecretStore yaml include senhasegura dsm secretstore yaml ClusterSecretStore yaml include senhasegura dsm clustersecretstore yaml Syncing secrets In examples below consider that three secrets api settings db settings and hsm settings are defined in senhasegura DSM Secret Identifier api settings Secret data bash URL https example com api example TOKEN example token value Secret Identifier db settings Secret data bash DB HOST db example DB PORT 5432 DB USERNAME example DB PASSWORD example Secret Identifier hsm settings Secret data bash HSM ADDRESS hsm example HSM PORT 9223 Sync DSM secrets using Secret Identifiers You can fetch all key value pairs for a given secret identifier If you leave the remoteRef property empty This returns the json encoded secret value for that path If you only need a specific key you can select it using remoteRef property as the key name In this method you can overwrites data name in Kubernetes Secret object e g API SETTINGS and API SETTINGS TOKEN yaml include senhasegura dsm external secret single yaml Kubernetes Secret will be create with follow data X bash API SETTINGS TOKEN example token value URL https example com api example API SETTINGS TOKEN example token value Sync DSM secrets using Secret Identifiers with automatically name assignments If your app requires multiples secrets it is not required to create multiple ExternalSecret resources you can aggregate secrets using a single ExternalSecret resource In this method every secret data in senhasegura creates an Kubernetes Secret data X field yaml include senhasegura dsm external secret multiple yaml Kubernetes Secret will be create with follow data X bash URL https example com api example TOKEN example token value DB HOST db example DB PORT 5432 DB USERNAME example DB PASSWORD example https github com external secrets external secrets pull 830 discussion r858657107 Sync all secrets from DSM authorization You can sync all secrets that your authorization in DSM has using find in a future release you will be able to filter secrets by name path or tags yaml include senhasegura dsm external secret all yaml Kubernetes Secret will be create with follow data X bash URL https example com api example TOKEN example token value DB HOST db example DB PORT 5432 DB USERNAME example DB PASSWORD example HSM ADDRESS hsm example HSM PORT 9223 |
external secrets Secrets Manager defined region You should define Roles that define fine grained access to way users of the can only access the secrets necessary A points to AWS Secrets Manager in a certain account within a individual secrets and pass them to ESO using This |
![aws sm](../pictures/eso-az-kv-aws-sm.png)
## Secrets Manager
A `SecretStore` points to AWS Secrets Manager in a certain account within a
defined region. You should define Roles that define fine-grained access to
individual secrets and pass them to ESO using `spec.provider.aws.role`. This
way users of the `SecretStore` can only access the secrets necessary.
``` yaml
{% include 'aws-sm-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `accessKeyIDSecretRef` and `secretAccessKeySecretRef` with the namespaces where the secrets reside.
### IAM Policy
Create a IAM Policy to pin down access to secrets matching `dev-*`.
``` json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"secretsmanager:GetResourcePolicy",
"secretsmanager:GetSecretValue",
"secretsmanager:DescribeSecret",
"secretsmanager:ListSecretVersionIds"
],
"Resource": [
"arn:aws:secretsmanager:us-west-2:111122223333:secret:dev-*"
]
}
]
}
```
#### Permissions for PushSecret
If you're planning to use `PushSecret`, ensure you also have the following permissions in your IAM policy:
``` json
{
"Effect": "Allow",
"Action": [
"secretsmanager:CreateSecret",
"secretsmanager:PutSecretValue",
"secretsmanager:TagResource",
"secretsmanager:DeleteSecret"
],
"Resource": [
"arn:aws:secretsmanager:us-west-2:111122223333:secret:dev-*"
]
}
```
Here's a more restrictive version of the IAM policy:
``` json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"secretsmanager:CreateSecret",
"secretsmanager:PutSecretValue",
"secretsmanager:TagResource"
],
"Resource": [
"arn:aws:secretsmanager:us-west-2:111122223333:secret:dev-*"
]
},
{
"Effect": "Allow",
"Action": [
"secretsmanager:DeleteSecret"
],
"Resource": [
"arn:aws:secretsmanager:us-west-2:111122223333:secret:dev-*"
],
"Condition": {
"StringEquals": {
"secretsmanager:ResourceTag/managed-by": "external-secrets"
}
}
}
]
}
```
In this policy, the DeleteSecret action is restricted to secrets that have the specified tag, ensuring that deletion operations are more controlled and in line with the intended management of the secrets.
#### Additional Settings for PushSecret
Additional settings can be set at the `SecretStore` level to control the behavior of `PushSecret` when interacting with AWS Secrets Manager.
```yaml
{% include 'aws-sm-store-secretsmanager-config.yaml' %}
```
#### Additional Metadata for PushSecret
It's possible to configure AWS Secrets Manager to either push secrets in `binary` format or as plain `string`.
To control this behaviour set the following provider metadata:
```yaml
{% include 'aws-sm-push-secret-with-metadata.yaml' %}
```
`secretPushFormat` takes two options. `binary` and `string`, where `binary` is the _default_.
### JSON Secret Values
SecretsManager supports *simple* key/value pairs that are stored as json. If you use the API you can store more complex JSON objects. You can access nested values or arrays using [gjson syntax](https://github.com/tidwall/gjson/blob/master/SYNTAX.md):
Consider the following JSON object that is stored in the SecretsManager key `friendslist`:
``` json
{
"name": {"first": "Tom", "last": "Anderson"},
"friends": [
{"first": "Dale", "last": "Murphy"},
{"first": "Roger", "last": "Craig"},
{"first": "Jane", "last": "Murphy"}
]
}
```
This is an example on how you would look up nested keys in the above json object:
``` yaml
{% include 'aws-sm-external-secret.yaml' %}
```
### Secret Versions
SecretsManager creates a new version of a secret every time it is updated. The secret version can be reference in two ways, the `VersionStage` and the `VersionId`. The `VersionId` is a unique uuid which is generated every time the secret changes. This id is immutable and will always refer to the same secret data. The `VersionStage` is an alias to a `VersionId`, and can refer to different secret data as the secret is updated. By default, SecretsManager will add the version stages `AWSCURRENT` and `AWSPREVIOUS` to every secret, but other stages can be created via the [update-secret-version-stage](https://docs.aws.amazon.com/cli/latest/reference/secretsmanager/update-secret-version-stage.html) api.
The `version` field on the `remoteRef` of the ExternalSecret will normally consider the version to be a `VersionStage`, but if the field is prefixed with `uuid/`, then the version will be considered a `VersionId`.
So in this example, the operator will request the same secret with different versions: `AWSCURRENT` and `AWSPREVIOUS`:
``` yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: versioned-api-key
spec:
refreshInterval: 1h
secretStoreRef:
name: aws-secretsmanager
kind: SecretStore
target:
name: versioned-api-key
creationPolicy: Owner
data:
- secretKey: previous-api-key
remoteRef:
key: "production/api-key"
version: "AWSPREVIOUS"
- secretKey: current-api-key
remoteRef:
key: "production/api-key"
version: "AWSCURRENT"
```
While in this example, the operator will request the secret with `VersionId` as `abcd-1234`
``` yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: versioned-api-key
spec:
refreshInterval: 1h
secretStoreRef:
name: aws-secretsmanager
kind: SecretStore
target:
name: versioned-api-key
creationPolicy: Owner
data:
- secretKey: api-key
remoteRef:
key: "production/api-key"
version: "uuid/123e4567-e89b-12d3-a456-426614174000"
```
--8<-- "snippets/provider-aws-access.md" | external secrets | aws sm pictures eso az kv aws sm png Secrets Manager A SecretStore points to AWS Secrets Manager in a certain account within a defined region You should define Roles that define fine grained access to individual secrets and pass them to ESO using spec provider aws role This way users of the SecretStore can only access the secrets necessary yaml include aws sm store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in accessKeyIDSecretRef and secretAccessKeySecretRef with the namespaces where the secrets reside IAM Policy Create a IAM Policy to pin down access to secrets matching dev json Version 2012 10 17 Statement Effect Allow Action secretsmanager GetResourcePolicy secretsmanager GetSecretValue secretsmanager DescribeSecret secretsmanager ListSecretVersionIds Resource arn aws secretsmanager us west 2 111122223333 secret dev Permissions for PushSecret If you re planning to use PushSecret ensure you also have the following permissions in your IAM policy json Effect Allow Action secretsmanager CreateSecret secretsmanager PutSecretValue secretsmanager TagResource secretsmanager DeleteSecret Resource arn aws secretsmanager us west 2 111122223333 secret dev Here s a more restrictive version of the IAM policy json Version 2012 10 17 Statement Effect Allow Action secretsmanager CreateSecret secretsmanager PutSecretValue secretsmanager TagResource Resource arn aws secretsmanager us west 2 111122223333 secret dev Effect Allow Action secretsmanager DeleteSecret Resource arn aws secretsmanager us west 2 111122223333 secret dev Condition StringEquals secretsmanager ResourceTag managed by external secrets In this policy the DeleteSecret action is restricted to secrets that have the specified tag ensuring that deletion operations are more controlled and in line with the intended management of the secrets Additional Settings for PushSecret Additional settings can be set at the SecretStore level to control the behavior of PushSecret when interacting with AWS Secrets Manager yaml include aws sm store secretsmanager config yaml Additional Metadata for PushSecret It s possible to configure AWS Secrets Manager to either push secrets in binary format or as plain string To control this behaviour set the following provider metadata yaml include aws sm push secret with metadata yaml secretPushFormat takes two options binary and string where binary is the default JSON Secret Values SecretsManager supports simple key value pairs that are stored as json If you use the API you can store more complex JSON objects You can access nested values or arrays using gjson syntax https github com tidwall gjson blob master SYNTAX md Consider the following JSON object that is stored in the SecretsManager key friendslist json name first Tom last Anderson friends first Dale last Murphy first Roger last Craig first Jane last Murphy This is an example on how you would look up nested keys in the above json object yaml include aws sm external secret yaml Secret Versions SecretsManager creates a new version of a secret every time it is updated The secret version can be reference in two ways the VersionStage and the VersionId The VersionId is a unique uuid which is generated every time the secret changes This id is immutable and will always refer to the same secret data The VersionStage is an alias to a VersionId and can refer to different secret data as the secret is updated By default SecretsManager will add the version stages AWSCURRENT and AWSPREVIOUS to every secret but other stages can be created via the update secret version stage https docs aws amazon com cli latest reference secretsmanager update secret version stage html api The version field on the remoteRef of the ExternalSecret will normally consider the version to be a VersionStage but if the field is prefixed with uuid then the version will be considered a VersionId So in this example the operator will request the same secret with different versions AWSCURRENT and AWSPREVIOUS yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name versioned api key spec refreshInterval 1h secretStoreRef name aws secretsmanager kind SecretStore target name versioned api key creationPolicy Owner data secretKey previous api key remoteRef key production api key version AWSPREVIOUS secretKey current api key remoteRef key production api key version AWSCURRENT While in this example the operator will request the secret with VersionId as abcd 1234 yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name versioned api key spec refreshInterval 1h secretStoreRef name aws secretsmanager kind SecretStore target name versioned api key creationPolicy Owner data secretKey api key remoteRef key production api key version uuid 123e4567 e89b 12d3 a456 426614174000 8 snippets provider aws access md |
external secrets External Secrets Operator integrates with for secret management IBM Cloud Secret Manager Authentication We support API key and trusted profile container authentication for this provider API key secret | ## IBM Cloud Secret Manager
External Secrets Operator integrates with [IBM Cloud Secret Manager](https://www.ibm.com/cloud/secrets-manager) for secret management.
### Authentication
We support API key and trusted profile container authentication for this provider.
#### API key secret
To generate your key (for test purposes we are going to generate from your user), first got to your (Access IAM) page:
![iam](../pictures/screenshot_api_keys_iam.png)
On the left, click "API Keys", then click on "Create"
![iam-left](../pictures/screenshot_api_keys_iam_left.png)
Pick a name and description for your key:
![iam-create-key](../pictures/screenshot_api_keys_create.png)
You have created a key. Press the eyeball to show the key. Copy or save it because keys can't be displayed or downloaded twice.
![iam-create-success](../pictures/screenshot_api_keys_create_successful.png)
Create a secret containing your apiKey:
```shell
kubectl create secret generic ibm-secret --from-literal=apiKey='API_KEY_VALUE'
```
#### Trusted Profile Container Auth
To create the trusted profile, first got to your (Access IAM) page:
![iam](../pictures/screenshot_api_keys_iam.png)
On the left, click "Access groups":
![iam-left](../pictures/screenshot_container_auth_create_group.png)
Pick a name and description for your group:
![iam-left](../pictures/screenshot_container_auth_create_group_1.png)
Click on "Access", and then on "Assign":
![iam-left](../pictures/screenshot_container_auth_create_group_2.png)
Click on "Assign Access", select "IAM services", and pick "Secrets Manager" from the pick-list:
![iam-left](../pictures/screenshot_container_auth_create_group_3.png)
Scope to "All resources" or "Resources based on selected attributes":
![iam-left](../pictures/screenshot_container_auth_create_group_4.png)
Select the "SecretsReader" service access policy:
![iam-left](../pictures/screenshot_container_auth_create_group_5.png)
Click "Add" and "Assign" to save the access group.
Next, on the left, click "Trusted profiles":
![iam-left](../pictures/screenshot_container_auth_iam_left.png)
Press "Create" and pick a name and description for your profile:
![iam-create-key](../pictures/screenshot_container_auth_create_1.png)
Scope the profile's access.
The compute service type will be "Red Hat OpenShift on IBM Cloud". Additional restriction can be configured based on cloud or cluster metadata, or if "Specific resources" is selected, restriction to a specific cluster.
![iam-create-key](../pictures/screenshot_container_auth_create_2.png)
Click "Add" next to the previously created access group and then "Create", to associate the necessary service permissions.
![iam-create-key](../pictures/screenshot_container_auth_create_3.png)
To use the container-based authentication, it is necessary to map the API server `serviceAccountToken` auth token to the "external-secrets" and "external-secrets-webhook" deployment descriptors. Example below:
```yaml
{% include 'ibm-container-auth-volume.yaml' %}
```
### Update secret store
Be sure the `ibm` provider is listed in the `Kind=SecretStore`
```yaml
{% include 'ibm-secret-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretApiKeySecretRef` with the namespace where the secret resides.
**NOTE:** Only `secretApiKeySecretRef` or `containerAuth` should be specified, depending on authentication method being used.
To find your `serviceURL`, under your Secrets Manager resource, go to "Endpoints" on the left.
See here for a list of [publicly available endpoints](https://cloud.ibm.com/apidocs/secrets-manager#getting-started-endpoints).
![iam-create-success](../pictures/screenshot_service_url.png)
### Secret Types
We support the following secret types of [IBM Secrets Manager](https://cloud.ibm.com/apidocs/secrets-manager):
* `arbitrary`
* `username_password`
* `iam_credentials`
* `service_credentials`
* `imported_cert`
* `public_cert`
* `private_cert`
* `kv`
To define the type of secret you would like to sync you need to prefix the secret id with the desired type. If the secret type is not specified it is defaulted to `arbitrary`:
```yaml
{% include 'ibm-es-types.yaml' %}
```
The behavior for the different secret types is as following:
#### arbitrary
* `remoteRef` retrieves a string from secrets manager and sets it for specified `secretKey`
* `dataFrom` retrieves a string from secrets manager and tries to parse it as JSON object setting the key:values pairs in resulting Kubernetes secret if successful
#### username_password
* `remoteRef` requires a `property` to be set for either `username` or `password` to retrieve respective fields from the secrets manager secret and set in specified `secretKey`
* `dataFrom` retrieves both `username` and `password` fields from the secrets manager secret and sets appropriate key:value pairs in the resulting Kubernetes secret
#### iam_credentials
* `remoteRef` retrieves an apikey from secrets manager and sets it for specified `secretKey`
* `dataFrom` retrieves an apikey from secrets manager and sets it for the `apikey` Kubernetes secret key
#### service_credentials
* `remoteRef` retrieves the credentials object from secrets manager and sets it for specified `secretKey`
* `dataFrom` retrieves the credential object as a map from secrets manager and sets appropriate key:value pairs in the resulting Kubernetes secret
#### imported_cert, public_cert, and private_cert
* `remoteRef` requires a `property` to be set for either `certificate`, `private_key` or `intermediate` to retrieve respective fields from the secrets manager secret and set in specified `secretKey`
* `dataFrom` retrieves all `certificate`, `private_key` and `intermediate` fields from the secrets manager secret and sets appropriate key:value pairs in the resulting Kubernetes secret
#### kv
* An optional `property` field can be set to `remoteRef` to select requested key from the KV secret. If not set, the entire secret will be returned
* `dataFrom` retrieves a string from secrets manager and tries to parse it as JSON object setting the key:values pairs in resulting Kubernetes secret if successful. It could be either used with the methods
* `Extract` to extract multiple key/value pairs from one secret (with optional `property` field being supported as well)
* `Find` to find secrets based on tags or regular expressions and allows finding multiple external secrets and map them into a single Kubernetes secret
```json
{
"key1": "val1",
"key2": "val2",
"key3": {
"keyA": "valA",
"keyB": "valB"
},
"special.key": "special-content"
}
```
```yaml
data:
- secretKey: key3_keyB
remoteRef:
key: 'kv/aaaaa-bbbb-cccc-dddd-eeeeee'
property: 'key3.keyB'
- secretKey: special_key
remoteRef:
key: 'kv/aaaaa-bbbb-cccc-dddd-eeeeee'
property: 'special.key'
- secretKey: key_all
remoteRef:
key: 'kv/aaaaa-bbbb-cccc-dddd-eeeeee'
```
```yaml
dataFrom:
- extract:
key: 'kv/fffff-gggg-iiii-dddd-eeeeee' #mandatory
decodingStrategy: Base64 #optional
```
```yaml
dataFrom:
- find:
name: #matches any secret name ending in foo-bar
regexp: "key" #assumption that secrets are stored like /comp/key1, key2/trigger, and comp/trigger/keygen within the secret manager
- find:
tags: #matches any secrets with the following metadata labels
environment: "dev"
application: "BFF"
```
results in
```yaml
data:
# secrets from data
key3_keyB: ... #valB
special_key: ... #special-content
key_all: ... #{"key1":"val1","key2":"val2", ..."special.key":"special-content"}
# secrets from dataFrom with extract method
keyA: ... #1st key-value pair from JSON object
keyB: ... #2nd key-value pair from JSON object
keyC: ... #3rd key-value pair from JSON object
# secrets from dataFrom with find regex method
_comp_key1: ... #secret value for /comp/key1
key2_trigger: ... #secret value for key2/trigger
_comp_trigger_keygen: ... #secret value for comp/trigger/keygen
# secrets from dataFrom with find tags method
bffA: ...
bffB: ...
bffC: ...
```
### Creating external secret
To create a kubernetes secret from the IBM Secrets Manager, a `Kind=ExternalSecret` is needed.
Below example creates a kubernetes secret based on ID of the secret in Secrets Manager.
```yaml
{% include 'ibm-external-secret.yaml' %}
```
Alternatively, the secret name along with its secret group name can be specified instead of secret ID to fetch the secret.
```yaml
{% include 'ibm-external-secret-by-name.yaml' %}
```
### Getting the Kubernetes secret
The operator will fetch the IBM Secret Manager secret and inject it as a `Kind=Secret`
```
kubectl get secret secret-to-be-created -n <namespace> | -o jsonpath='{.data.test}' | base64 -d
```
### Populating the Kubernetes secret with metadata from IBM Secrets Manager Provider
ESO can add metadata while creating or updating a Kubernetes secret to be reflected in its labels or annotations. The metadata could be any of the fields that are supported and returned in the response by IBM Secrets Manager.
In order for the user to opt in to adding metadata to secret, an existing optional field `spec.dataFrom.extract.metadataPolicy` can be set to `Fetch`, its default value being `None`. In addition to this, templating provided be ESO can be leveraged to specify the key-value pairs of the resultant secrets' labels and annotation.
In order for the required metadata to be populated in the Kubernetes secret, combination of below should be provided in the External Secrets resource:
1. The required metadata should be specified under `template.metadata.labels` or `template.metadata.annotations`.
2. The required secret data should be specified under `template.data`.
3. The spec.dataFrom.extract should be specified with details of the Secrets Manager secret with `spec.dataFrom.extract.metadataPolicy` set to `Fetch`.
Below is an example, where `secret_id` and `updated_at` are the metadata of a secret in IBM Secrets Manager:
```yaml
{% include 'ibm-external-secret-with-metadata.yaml' %}
```
While the secret is being reconciled, it will have the secret data along with the required annotations. Below is the example of the secret after reconciliation:
```yaml
apiVersion: v1
data:
secret: OHE0MFV5MGhQb2FmRjZTOGVva3dPQjRMeVZXeXpWSDlrSWgyR1BiVDZTMyc=
immutable: false
kind: Secret
metadata:
annotations:
reconcile.external-secrets.io/data-hash: 02217008d13ed228e75cf6d26fe74324
creationTimestamp: "2023-05-04T08:41:24Z"
secret_id: "1234"
updated_at: 2023-05-04T08:57:19Z
name: database-credentials
namespace: external-secrets
ownerReferences:
- apiVersion: external-secrets.io/v1beta1
blockOwnerDeletion: true
controller: true
kind: ExternalSecret
name: database-credentials
uid: c2a018e7-1ac3-421b-bd3b-d9497204f843
#resourceVersion: "1803567" #immutable for a user
#uid: f5dff604-611b-4d41-9d65-b860c61a0b8d #immutable for a user
type: Opaque
``` | external secrets | IBM Cloud Secret Manager External Secrets Operator integrates with IBM Cloud Secret Manager https www ibm com cloud secrets manager for secret management Authentication We support API key and trusted profile container authentication for this provider API key secret To generate your key for test purposes we are going to generate from your user first got to your Access IAM page iam pictures screenshot api keys iam png On the left click API Keys then click on Create iam left pictures screenshot api keys iam left png Pick a name and description for your key iam create key pictures screenshot api keys create png You have created a key Press the eyeball to show the key Copy or save it because keys can t be displayed or downloaded twice iam create success pictures screenshot api keys create successful png Create a secret containing your apiKey shell kubectl create secret generic ibm secret from literal apiKey API KEY VALUE Trusted Profile Container Auth To create the trusted profile first got to your Access IAM page iam pictures screenshot api keys iam png On the left click Access groups iam left pictures screenshot container auth create group png Pick a name and description for your group iam left pictures screenshot container auth create group 1 png Click on Access and then on Assign iam left pictures screenshot container auth create group 2 png Click on Assign Access select IAM services and pick Secrets Manager from the pick list iam left pictures screenshot container auth create group 3 png Scope to All resources or Resources based on selected attributes iam left pictures screenshot container auth create group 4 png Select the SecretsReader service access policy iam left pictures screenshot container auth create group 5 png Click Add and Assign to save the access group Next on the left click Trusted profiles iam left pictures screenshot container auth iam left png Press Create and pick a name and description for your profile iam create key pictures screenshot container auth create 1 png Scope the profile s access The compute service type will be Red Hat OpenShift on IBM Cloud Additional restriction can be configured based on cloud or cluster metadata or if Specific resources is selected restriction to a specific cluster iam create key pictures screenshot container auth create 2 png Click Add next to the previously created access group and then Create to associate the necessary service permissions iam create key pictures screenshot container auth create 3 png To use the container based authentication it is necessary to map the API server serviceAccountToken auth token to the external secrets and external secrets webhook deployment descriptors Example below yaml include ibm container auth volume yaml Update secret store Be sure the ibm provider is listed in the Kind SecretStore yaml include ibm secret store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretApiKeySecretRef with the namespace where the secret resides NOTE Only secretApiKeySecretRef or containerAuth should be specified depending on authentication method being used To find your serviceURL under your Secrets Manager resource go to Endpoints on the left See here for a list of publicly available endpoints https cloud ibm com apidocs secrets manager getting started endpoints iam create success pictures screenshot service url png Secret Types We support the following secret types of IBM Secrets Manager https cloud ibm com apidocs secrets manager arbitrary username password iam credentials service credentials imported cert public cert private cert kv To define the type of secret you would like to sync you need to prefix the secret id with the desired type If the secret type is not specified it is defaulted to arbitrary yaml include ibm es types yaml The behavior for the different secret types is as following arbitrary remoteRef retrieves a string from secrets manager and sets it for specified secretKey dataFrom retrieves a string from secrets manager and tries to parse it as JSON object setting the key values pairs in resulting Kubernetes secret if successful username password remoteRef requires a property to be set for either username or password to retrieve respective fields from the secrets manager secret and set in specified secretKey dataFrom retrieves both username and password fields from the secrets manager secret and sets appropriate key value pairs in the resulting Kubernetes secret iam credentials remoteRef retrieves an apikey from secrets manager and sets it for specified secretKey dataFrom retrieves an apikey from secrets manager and sets it for the apikey Kubernetes secret key service credentials remoteRef retrieves the credentials object from secrets manager and sets it for specified secretKey dataFrom retrieves the credential object as a map from secrets manager and sets appropriate key value pairs in the resulting Kubernetes secret imported cert public cert and private cert remoteRef requires a property to be set for either certificate private key or intermediate to retrieve respective fields from the secrets manager secret and set in specified secretKey dataFrom retrieves all certificate private key and intermediate fields from the secrets manager secret and sets appropriate key value pairs in the resulting Kubernetes secret kv An optional property field can be set to remoteRef to select requested key from the KV secret If not set the entire secret will be returned dataFrom retrieves a string from secrets manager and tries to parse it as JSON object setting the key values pairs in resulting Kubernetes secret if successful It could be either used with the methods Extract to extract multiple key value pairs from one secret with optional property field being supported as well Find to find secrets based on tags or regular expressions and allows finding multiple external secrets and map them into a single Kubernetes secret json key1 val1 key2 val2 key3 keyA valA keyB valB special key special content yaml data secretKey key3 keyB remoteRef key kv aaaaa bbbb cccc dddd eeeeee property key3 keyB secretKey special key remoteRef key kv aaaaa bbbb cccc dddd eeeeee property special key secretKey key all remoteRef key kv aaaaa bbbb cccc dddd eeeeee yaml dataFrom extract key kv fffff gggg iiii dddd eeeeee mandatory decodingStrategy Base64 optional yaml dataFrom find name matches any secret name ending in foo bar regexp key assumption that secrets are stored like comp key1 key2 trigger and comp trigger keygen within the secret manager find tags matches any secrets with the following metadata labels environment dev application BFF results in yaml data secrets from data key3 keyB valB special key special content key all key1 val1 key2 val2 special key special content secrets from dataFrom with extract method keyA 1st key value pair from JSON object keyB 2nd key value pair from JSON object keyC 3rd key value pair from JSON object secrets from dataFrom with find regex method comp key1 secret value for comp key1 key2 trigger secret value for key2 trigger comp trigger keygen secret value for comp trigger keygen secrets from dataFrom with find tags method bffA bffB bffC Creating external secret To create a kubernetes secret from the IBM Secrets Manager a Kind ExternalSecret is needed Below example creates a kubernetes secret based on ID of the secret in Secrets Manager yaml include ibm external secret yaml Alternatively the secret name along with its secret group name can be specified instead of secret ID to fetch the secret yaml include ibm external secret by name yaml Getting the Kubernetes secret The operator will fetch the IBM Secret Manager secret and inject it as a Kind Secret kubectl get secret secret to be created n namespace o jsonpath data test base64 d Populating the Kubernetes secret with metadata from IBM Secrets Manager Provider ESO can add metadata while creating or updating a Kubernetes secret to be reflected in its labels or annotations The metadata could be any of the fields that are supported and returned in the response by IBM Secrets Manager In order for the user to opt in to adding metadata to secret an existing optional field spec dataFrom extract metadataPolicy can be set to Fetch its default value being None In addition to this templating provided be ESO can be leveraged to specify the key value pairs of the resultant secrets labels and annotation In order for the required metadata to be populated in the Kubernetes secret combination of below should be provided in the External Secrets resource 1 The required metadata should be specified under template metadata labels or template metadata annotations 2 The required secret data should be specified under template data 3 The spec dataFrom extract should be specified with details of the Secrets Manager secret with spec dataFrom extract metadataPolicy set to Fetch Below is an example where secret id and updated at are the metadata of a secret in IBM Secrets Manager yaml include ibm external secret with metadata yaml While the secret is being reconciled it will have the secret data along with the required annotations Below is the example of the secret after reconciliation yaml apiVersion v1 data secret OHE0MFV5MGhQb2FmRjZTOGVva3dPQjRMeVZXeXpWSDlrSWgyR1BiVDZTMyc immutable false kind Secret metadata annotations reconcile external secrets io data hash 02217008d13ed228e75cf6d26fe74324 creationTimestamp 2023 05 04T08 41 24Z secret id 1234 updated at 2023 05 04T08 57 19Z name database credentials namespace external secrets ownerReferences apiVersion external secrets io v1beta1 blockOwnerDeletion true controller true kind ExternalSecret name database credentials uid c2a018e7 1ac3 421b bd3b d9497204f843 resourceVersion 1803567 immutable for a user uid f5dff604 611b 4d41 9d65 b860c61a0b8d immutable for a user type Opaque |
external secrets External Secrets Operator integrates with Warning The External Secrets Operator secure usage involves taking several measures Please see for more information The BT provider supports retrieval of a secret from BeyondInsight Password Safe versions 23 1 or greater BeyondTrust Password Safe Prerequisites Warning If the BT provider secret is deleted it will still exist in the Kubernetes secrets | ## BeyondTrust Password Safe
External Secrets Operator integrates with [BeyondTrust Password Safe](https://www.beyondtrust.com/docs/beyondinsight-password-safe/).
Warning: The External Secrets Operator secure usage involves taking several measures. Please see [Security Best Practices](https://external-secrets.io/latest/guides/security-best-practices/) for more information.
Warning: If the BT provider secret is deleted it will still exist in the Kubernetes secrets.
### Prerequisites
The BT provider supports retrieval of a secret from BeyondInsight/Password Safe versions 23.1 or greater.
For this provider to retrieve a secret the Password Safe/Secrets Safe instance must be preconfigured with the secret in question and authorized to read it.
### Authentication
BeyondTrust [OAuth Authentication](https://www.beyondtrust.com/docs/beyondinsight-password-safe/ps/admin/configure-api-registration.htm).
1. Create an API access registration in BeyondInsight
2. Create or use an existing Secrets Safe Group
3. Create or use an existing Application User
4. Add API registration to the Application user
5. Add the user to the group
6. Add the Secrets Safe Feature to the group
> NOTE: The ClientID and ClientSecret must be stored in a Kubernetes secret in order for the SecretStore to read the configuration.
If you're using client credentials authentication:
```sh
kubectl create secret generic bt-secret --from-literal ClientSecret="<your secret>"
kubectl create secret generic bt-id --from-literal ClientId="<your ID>"
```
If you're using API Key authentication:
```sh
kubectl create secret generic bt-apikey --from-literal ApiKey="<your apikey>"
```
### Client Certificate
If using `retrievalType: MANAGED_ACCOUNT`, you will also need to download the pfx certificate from Secrets Safe, extract that certificate and create two Kubernetes secrets.
```sh
openssl pkcs12 -in client_certificate.pfx -nocerts -out ps_key.pem -nodes
openssl pkcs12 -in client_certificate.pfx -clcerts -nokeys -out ps_cert.pem
# Copy the text from the ps_key.pem to a file.
-----BEGIN PRIVATE KEY-----
...
-----END PRIVATE KEY-----
# Copy the text from the ps_cert.pem to a file.
-----BEGIN CERTIFICATE-----
...
-----END CERTIFICATE-----
kubectl create secret generic bt-certificate --from-file=ClientCertificate=./ps_cert.pem
kubectl create secret generic bt-certificatekey --from-file=ClientCertificateKey=./ps_key.pem
```
### Creating a SecretStore
You can follow the below example to create a `SecretStore` resource.
You can also use a `ClusterSecretStore` allowing you to reference secrets from all namespaces. [ClusterSecretStore](https://external-secrets.io/latest/api/clustersecretstore/)
```sh
kubectl apply -f secret-store.yml
```
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secretstore-beyondtrust
spec:
provider:
beyondtrust:
server:
apiUrl: https://example.com:443/BeyondTrust/api/public/v3/
retrievalType: MANAGED_ACCOUNT # or SECRET
verifyCA: true
clientTimeOutSeconds: 45
auth:
certificate: # omit certificates if retrievalType is SECRET
secretRef:
name: bt-certificate
key: ClientCertificate
certificateKey:
secretRef:
name: bt-certificatekey
key: ClientCertificateKey
clientSecret: # define this section if using client credentials authentication
secretRef:
name: bt-secret
key: ClientSecret
clientId: # define this section if using client credentials authentication
secretRef:
name: bt-id
key: ClientId
apiKey: # define this section if using Api Key authentication
secretRef:
name: bt-apikey
key: ApiKey
```
### Creating an ExternalSecret
You can follow the below example to create a `ExternalSecret` resource. Secrets can be referenced by path.
You can also use a `ClusterExternalSecret` allowing you to reference secrets from all namespaces.
```sh
kubectl apply -f external-secret.yml
```
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: beyondtrust-external-secret
spec:
refreshInterval: 1h
secretStoreRef:
kind: SecretStore
name: secretstore-beyondtrust
target:
name: my-beyondtrust-secret # name of secret to create in k8s secrets (etcd)
creationPolicy: Owner
data:
- secretKey: secretKey
remoteRef:
key: system01/managed_account01
```
### Get the K8s secret
```shell
# WARNING: this command will reveal the stored secret in plain text
kubectl get secret my-beyondtrust-secret -o jsonpath="{.data.secretKey}" | base64 --decode && echo
`` | external secrets | BeyondTrust Password Safe External Secrets Operator integrates with BeyondTrust Password Safe https www beyondtrust com docs beyondinsight password safe Warning The External Secrets Operator secure usage involves taking several measures Please see Security Best Practices https external secrets io latest guides security best practices for more information Warning If the BT provider secret is deleted it will still exist in the Kubernetes secrets Prerequisites The BT provider supports retrieval of a secret from BeyondInsight Password Safe versions 23 1 or greater For this provider to retrieve a secret the Password Safe Secrets Safe instance must be preconfigured with the secret in question and authorized to read it Authentication BeyondTrust OAuth Authentication https www beyondtrust com docs beyondinsight password safe ps admin configure api registration htm 1 Create an API access registration in BeyondInsight 2 Create or use an existing Secrets Safe Group 3 Create or use an existing Application User 4 Add API registration to the Application user 5 Add the user to the group 6 Add the Secrets Safe Feature to the group NOTE The ClientID and ClientSecret must be stored in a Kubernetes secret in order for the SecretStore to read the configuration If you re using client credentials authentication sh kubectl create secret generic bt secret from literal ClientSecret your secret kubectl create secret generic bt id from literal ClientId your ID If you re using API Key authentication sh kubectl create secret generic bt apikey from literal ApiKey your apikey Client Certificate If using retrievalType MANAGED ACCOUNT you will also need to download the pfx certificate from Secrets Safe extract that certificate and create two Kubernetes secrets sh openssl pkcs12 in client certificate pfx nocerts out ps key pem nodes openssl pkcs12 in client certificate pfx clcerts nokeys out ps cert pem Copy the text from the ps key pem to a file BEGIN PRIVATE KEY END PRIVATE KEY Copy the text from the ps cert pem to a file BEGIN CERTIFICATE END CERTIFICATE kubectl create secret generic bt certificate from file ClientCertificate ps cert pem kubectl create secret generic bt certificatekey from file ClientCertificateKey ps key pem Creating a SecretStore You can follow the below example to create a SecretStore resource You can also use a ClusterSecretStore allowing you to reference secrets from all namespaces ClusterSecretStore https external secrets io latest api clustersecretstore sh kubectl apply f secret store yml yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secretstore beyondtrust spec provider beyondtrust server apiUrl https example com 443 BeyondTrust api public v3 retrievalType MANAGED ACCOUNT or SECRET verifyCA true clientTimeOutSeconds 45 auth certificate omit certificates if retrievalType is SECRET secretRef name bt certificate key ClientCertificate certificateKey secretRef name bt certificatekey key ClientCertificateKey clientSecret define this section if using client credentials authentication secretRef name bt secret key ClientSecret clientId define this section if using client credentials authentication secretRef name bt id key ClientId apiKey define this section if using Api Key authentication secretRef name bt apikey key ApiKey Creating an ExternalSecret You can follow the below example to create a ExternalSecret resource Secrets can be referenced by path You can also use a ClusterExternalSecret allowing you to reference secrets from all namespaces sh kubectl apply f external secret yml yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name beyondtrust external secret spec refreshInterval 1h secretStoreRef kind SecretStore name secretstore beyondtrust target name my beyondtrust secret name of secret to create in k8s secrets etcd creationPolicy Owner data secretKey secretKey remoteRef key system01 managed account01 Get the K8s secret shell WARNING this command will reveal the stored secret in plain text kubectl get secret my beyondtrust secret o jsonpath data secretKey base64 decode echo |
external secrets Sync environments configs and secrets from to Kubernetes using the External Secrets Operator Authentication More information about setting up ESC can be found in the Pulumi ESC | ## Pulumi ESC
Sync environments, configs and secrets from [Pulumi ESC](https://www.pulumi.com/product/esc/) to Kubernetes using the External Secrets Operator.
![Pulumi ESC](../pictures/pulumi-esc.png)
More information about setting up [Pulumi](https://www.pulumi.com/) ESC can be found in the [Pulumi ESC documentation](https://www.pulumi.com/docs/esc/).
### Authentication
Pulumi [Access Tokens](https://www.pulumi.com/docs/pulumi-cloud/access-management/access-tokens/) are recommended to access Pulumi ESC.
### Creating a SecretStore
A Pulumi `SecretStore` can be created by specifying the `organization`, `project` and `environment` and referencing a Kubernetes secret containing the `accessToken`.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secret-store
spec:
provider:
pulumi:
organization: <NAME_OF_THE_ORGANIZATION>
project: <NAME_OF_THE_PROJECT>
environment: <NAME_OF_THE_ENVIRONMENT>
accessToken:
secretRef:
name: <NAME_OF_KUBE_SECRET>
key: <KEY_IN_KUBE_SECRET>
```
If required, the API URL (`apiUrl`) can be customized as well. If not specified, the default value is `https://api.pulumi.com/api/esc`.
### Creating a ClusterSecretStore
Similarly, a `ClusterSecretStore` can be created by specifying the `namespace` and referencing a Kubernetes secret containing the `accessToken`.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ClusterSecretStore
metadata:
name: secret-store
spec:
provider:
pulumi:
organization: <NAME_OF_THE_ORGANIZATION>
project: <NAME_OF_THE_PROJECT>
environment: <NAME_OF_THE_ENVIRONMENT>
accessToken:
secretRef:
name: <NAME_OF_KUBE_SECRET>
key: <KEY_IN_KUBE_SECRET>
namespace: <NAMESPACE>
```
### Referencing Secrets
Secrets can be referenced by defining the `key` containing the JSON path to the secret. Pulumi ESC secrets are internally organized as a JSON object.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: secret
spec:
refreshInterval: 1h
secretStoreRef:
kind: SecretStore
name: secret-store
data:
- secretKey: <KEY_IN_KUBE_SECRET>
remoteRef:
key: <PULUMI_PATH_SYNTAX>
```
**Note:** `key` is not following the JSON Path syntax, but rather the Pulumi path syntax.
#### Examples
* root
* root.nested
* root["nested"]
* root.double.nest
* root["double"].nest
* root["double"]["nest"]
* root.array[0]
* root.array[100]
* root.array[0].nested
* root.array[0][1].nested
* root.nested.array[0].double[1]
* root["key with \"escaped\" quotes"]
* root["key with a ."]
* ["root key with \"escaped\" quotes"].nested
* ["root key with a ."][100]
* root.array[*].field
* root.array["*"].field
See [Pulumi's documentation](https://www.pulumi.com/docs/concepts/options/ignorechanges/) for more information.
### PushSecrets
With the latest release of Pulumi ESC, secrets can be pushed to the Pulumi service. This can be done by creating a `PushSecrets` object.
Here is a basic example of how to define a `PushSecret` object:
```yaml
apiVersion: external-secrets.io/v1alpha1
kind: PushSecret
metadata:
name: push-secret-example
spec:
refreshInterval: 1h
selector:
secret:
name: <NAME_OF_KUBE_SECRET>
secretStoreRefs:
- kind: ClusterSecretStore
name: secret-store
data:
- match:
secretKey: <KEY_IN_KUBE_SECRET>
remoteRef:
remoteKey: <PULUMI_PATH_SYNTAX>
```
This will then push the secret to the Pulumi service. If the secret already exists, it will be updated.
### Limitations
Currently, the Pulumi provider only supports nested objects up to a depth of 1. Any nested objects beyond this depth will be stored as a string with the JSON representation.
This Pulumi ESC example:
```yaml
values:
backstage:
my: test
test: hello
test22:
my: hello
test33:
world: true
x: true
num: 42
```
Will result in the following Kubernetes secret:
```yaml
my: test
num: "42"
test: hello
test22: '{"my":{"trace":{"def":{"begin":{"byte":72,"column":11,"line":6},"end":{"byte":77,"column":16,"line":6},"environment":"tgif-demo"}},"value":"hello"}}'
test33: '{"world":{"trace":{"def":{"begin":{"byte":103,"column":14,"line":8},"end":{"byte":107,"column":18,"line":8},"environment":"tgif-demo"}},"value":true}}'
x: "true"
``` | external secrets | Pulumi ESC Sync environments configs and secrets from Pulumi ESC https www pulumi com product esc to Kubernetes using the External Secrets Operator Pulumi ESC pictures pulumi esc png More information about setting up Pulumi https www pulumi com ESC can be found in the Pulumi ESC documentation https www pulumi com docs esc Authentication Pulumi Access Tokens https www pulumi com docs pulumi cloud access management access tokens are recommended to access Pulumi ESC Creating a SecretStore A Pulumi SecretStore can be created by specifying the organization project and environment and referencing a Kubernetes secret containing the accessToken yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secret store spec provider pulumi organization NAME OF THE ORGANIZATION project NAME OF THE PROJECT environment NAME OF THE ENVIRONMENT accessToken secretRef name NAME OF KUBE SECRET key KEY IN KUBE SECRET If required the API URL apiUrl can be customized as well If not specified the default value is https api pulumi com api esc Creating a ClusterSecretStore Similarly a ClusterSecretStore can be created by specifying the namespace and referencing a Kubernetes secret containing the accessToken yaml apiVersion external secrets io v1beta1 kind ClusterSecretStore metadata name secret store spec provider pulumi organization NAME OF THE ORGANIZATION project NAME OF THE PROJECT environment NAME OF THE ENVIRONMENT accessToken secretRef name NAME OF KUBE SECRET key KEY IN KUBE SECRET namespace NAMESPACE Referencing Secrets Secrets can be referenced by defining the key containing the JSON path to the secret Pulumi ESC secrets are internally organized as a JSON object yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name secret spec refreshInterval 1h secretStoreRef kind SecretStore name secret store data secretKey KEY IN KUBE SECRET remoteRef key PULUMI PATH SYNTAX Note key is not following the JSON Path syntax but rather the Pulumi path syntax Examples root root nested root nested root double nest root double nest root double nest root array 0 root array 100 root array 0 nested root array 0 1 nested root nested array 0 double 1 root key with escaped quotes root key with a root key with escaped quotes nested root key with a 100 root array field root array field See Pulumi s documentation https www pulumi com docs concepts options ignorechanges for more information PushSecrets With the latest release of Pulumi ESC secrets can be pushed to the Pulumi service This can be done by creating a PushSecrets object Here is a basic example of how to define a PushSecret object yaml apiVersion external secrets io v1alpha1 kind PushSecret metadata name push secret example spec refreshInterval 1h selector secret name NAME OF KUBE SECRET secretStoreRefs kind ClusterSecretStore name secret store data match secretKey KEY IN KUBE SECRET remoteRef remoteKey PULUMI PATH SYNTAX This will then push the secret to the Pulumi service If the secret already exists it will be updated Limitations Currently the Pulumi provider only supports nested objects up to a depth of 1 Any nested objects beyond this depth will be stored as a string with the JSON representation This Pulumi ESC example yaml values backstage my test test hello test22 my hello test33 world true x true num 42 Will result in the following Kubernetes secret yaml my test num 42 test hello test22 my trace def begin byte 72 column 11 line 6 end byte 77 column 16 line 6 environment tgif demo value hello test33 world trace def begin byte 103 column 14 line 8 end byte 107 column 18 line 8 environment tgif demo value true x true |
external secrets will enable users to seamlessly integrate their Chef based secret management with Kubernetes through the existing External Secrets framework Authentication In many enterprises legacy applications and infrastructure are still tightly integrated with the Chef Chef Infra Server Chef Server Cluster for configuration and secrets management Teams often rely on to securely store sensitive information such as application secrets and infrastructure configurations These data bags serve as a centralized repository for managing and distributing sensitive data across the Chef ecosystem Chef NOTE is designed only to fetch data from the Chef data bags into Kubernetes secrets it won t update delete any item in the data bags | ## Chef
`Chef External Secrets provider` will enable users to seamlessly integrate their Chef-based secret management with Kubernetes through the existing External Secrets framework.
In many enterprises, legacy applications and infrastructure are still tightly integrated with the Chef/Chef Infra Server/Chef Server Cluster for configuration and secrets management. Teams often rely on [Chef data bags](https://docs.chef.io/data_bags/) to securely store sensitive information such as application secrets and infrastructure configurations. These data bags serve as a centralized repository for managing and distributing sensitive data across the Chef ecosystem.
**NOTE:** `Chef External Secrets provider` is designed only to fetch data from the Chef data bags into Kubernetes secrets, it won't update/delete any item in the data bags.
### Authentication
Every request made to the Chef Infra server needs to be authenticated. [Authentication](https://docs.chef.io/server/auth/) is done using the Private keys of the Chef Users. The User needs to have appropriate [Permissions](https://docs.chef.io/server/server_orgs/#permissions) to the data bags containing the data that they want to fetch using the External Secrets Operator.
The following command can be used to create Chef Users:
```sh
chef-server-ctl user-create USER_NAME FIRST_NAME [MIDDLE_NAME] LAST_NAME EMAIL 'PASSWORD' (options)
```
More details on the above command are available here [Chef User Create Option](https://docs.chef.io/server/server_users/#user-create). The above command will return the default private key (PRIVATE_KEY_VALUE), which we will use for authentication. Additionally, a Chef User with access to specific data bags, a private key pair with an expiration date can be created with the help of the [knife user key](https://docs.chef.io/server/auth/#knife-user-key) command.
### Create a secret containing your private key
We need to store the above User's API key into a secret resource.
Example:
```sh
kubectl create secret generic chef-user-secret -n vivid --from-literal=user-private-key='PRIVATE_KEY_VALUE'
```
### Creating ClusterSecretStore
The Chef `ClusterSecretStore` is a cluster-scoped SecretStore that can be referenced by all Chef `ExternalSecrets` from all namespaces. You can follow the below example to create a `ClusterSecretStore` resource.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ClusterSecretStore
metadata:
name: vivid-clustersecretstore # name of ClusterSecretStore
spec:
provider:
chef:
username: user # Chef User name
serverUrl: https://manage.chef.io/organizations/testuser/ # Chef server URL
auth:
secretRef:
privateKeySecretRef:
key: user-private-key # name of the key inside Secret resource
name: chef-user-secret # name of Kubernetes Secret resource containing the Chef User's private key
namespace: vivid # the namespace in which the above Secret resource resides
```
### Creating SecretStore
Chef `SecretStores` are bound to a namespace and can not reference resources across namespaces. For cross-namespace SecretStores, you must use Chef `ClusterSecretStores`.
You can follow the below example to create a `SecretStore` resource.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: vivid-secretstore # name of SecretStore
namespace: vivid # must be required for kind: SecretStore
spec:
provider:
chef:
username: user # Chef User name
serverUrl: https://manage.chef.io/organizations/testuser/ # Chef server URL
auth:
secretRef:
privateKeySecretRef:
name: chef-user-secret # name of Kubernetes Secret resource containing the Chef User's private key
key: user-private-key # name of the key inside Secret resource
namespace: vivid # the ns where the k8s secret resource containing Chef User's private key resides
```
### Creating ExternalSecret
The Chef `ExternalSecret` describes what data should be fetched from Chef Data bags, and how the data should be transformed and saved as a Kind=Secret.
You can follow the below example to create an `ExternalSecret` resource.
```yaml
{% include 'chef-external-secret.yaml' %}
```
When the above `ClusterSecretStore` and `ExternalSecret` resources are created, the `ExternalSecret` will connect to the Chef Server using the private key and will fetch the data bags contained in the `vivid-credentials` secret resource.
To get all data items inside the data bag, you can use the `dataFrom` directive:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vivid-external-secrets # name of ExternalSecret
namespace: vivid # namespace inside which the ExternalSecret will be created
annotations:
company/contacts: [email protected], [email protected]
company/team: vivid-dev
labels:
app.kubernetes.io/name: external-secrets
spec:
refreshInterval: 1h
secretStoreRef:
name: vivid-clustersecretstore # name of ClusterSecretStore
kind: ClusterSecretStore
dataFrom:
- extract:
key: vivid_global # only data bag name
target:
name: vivid_global_all_cred # name of Kubernetes Secret resource that will be created and will contain the obtained secrets
creationPolicy: Owner
```
follow : [this file](https://github.com/external-secrets/external-secrets/blob/main/apis/externalsecrets/v1beta1/secretstore_chef_types.go) for more info | external secrets | Chef Chef External Secrets provider will enable users to seamlessly integrate their Chef based secret management with Kubernetes through the existing External Secrets framework In many enterprises legacy applications and infrastructure are still tightly integrated with the Chef Chef Infra Server Chef Server Cluster for configuration and secrets management Teams often rely on Chef data bags https docs chef io data bags to securely store sensitive information such as application secrets and infrastructure configurations These data bags serve as a centralized repository for managing and distributing sensitive data across the Chef ecosystem NOTE Chef External Secrets provider is designed only to fetch data from the Chef data bags into Kubernetes secrets it won t update delete any item in the data bags Authentication Every request made to the Chef Infra server needs to be authenticated Authentication https docs chef io server auth is done using the Private keys of the Chef Users The User needs to have appropriate Permissions https docs chef io server server orgs permissions to the data bags containing the data that they want to fetch using the External Secrets Operator The following command can be used to create Chef Users sh chef server ctl user create USER NAME FIRST NAME MIDDLE NAME LAST NAME EMAIL PASSWORD options More details on the above command are available here Chef User Create Option https docs chef io server server users user create The above command will return the default private key PRIVATE KEY VALUE which we will use for authentication Additionally a Chef User with access to specific data bags a private key pair with an expiration date can be created with the help of the knife user key https docs chef io server auth knife user key command Create a secret containing your private key We need to store the above User s API key into a secret resource Example sh kubectl create secret generic chef user secret n vivid from literal user private key PRIVATE KEY VALUE Creating ClusterSecretStore The Chef ClusterSecretStore is a cluster scoped SecretStore that can be referenced by all Chef ExternalSecrets from all namespaces You can follow the below example to create a ClusterSecretStore resource yaml apiVersion external secrets io v1beta1 kind ClusterSecretStore metadata name vivid clustersecretstore name of ClusterSecretStore spec provider chef username user Chef User name serverUrl https manage chef io organizations testuser Chef server URL auth secretRef privateKeySecretRef key user private key name of the key inside Secret resource name chef user secret name of Kubernetes Secret resource containing the Chef User s private key namespace vivid the namespace in which the above Secret resource resides Creating SecretStore Chef SecretStores are bound to a namespace and can not reference resources across namespaces For cross namespace SecretStores you must use Chef ClusterSecretStores You can follow the below example to create a SecretStore resource yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name vivid secretstore name of SecretStore namespace vivid must be required for kind SecretStore spec provider chef username user Chef User name serverUrl https manage chef io organizations testuser Chef server URL auth secretRef privateKeySecretRef name chef user secret name of Kubernetes Secret resource containing the Chef User s private key key user private key name of the key inside Secret resource namespace vivid the ns where the k8s secret resource containing Chef User s private key resides Creating ExternalSecret The Chef ExternalSecret describes what data should be fetched from Chef Data bags and how the data should be transformed and saved as a Kind Secret You can follow the below example to create an ExternalSecret resource yaml include chef external secret yaml When the above ClusterSecretStore and ExternalSecret resources are created the ExternalSecret will connect to the Chef Server using the private key and will fetch the data bags contained in the vivid credentials secret resource To get all data items inside the data bag you can use the dataFrom directive yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vivid external secrets name of ExternalSecret namespace vivid namespace inside which the ExternalSecret will be created annotations company contacts user a company com user b company com company team vivid dev labels app kubernetes io name external secrets spec refreshInterval 1h secretStoreRef name vivid clustersecretstore name of ClusterSecretStore kind ClusterSecretStore dataFrom extract key vivid global only data bag name target name vivid global all cred name of Kubernetes Secret resource that will be created and will contain the obtained secrets creationPolicy Owner follow this file https github com external secrets external secrets blob main apis externalsecrets v1beta1 secretstore chef types go for more info |
external secrets Secrets Manager Configuration SMC Authentication External Secrets Operator integrates with for secret management by using Keeper Security KSM can authenticate using One Time Access Token or Secret Manager Configuration In order to work with External Secret Operator we need to configure a Secret Manager Configuration | ## Keeper Security
External Secrets Operator integrates with [Keeper Security](https://www.keepersecurity.com/) for secret management by using [Keeper Secrets Manager](https://docs.keeper.io/secrets-manager/secrets-manager/about).
## Authentication
### Secrets Manager Configuration (SMC)
KSM can authenticate using *One Time Access Token* or *Secret Manager Configuration*. In order to work with External Secret Operator we need to configure a Secret Manager Configuration.
#### Creating Secrets Manager Configuration
You can find the documentation for the Secret Manager Configuration creation [here](https://docs.keeper.io/secrets-manager/secrets-manager/about/secrets-manager-configuration). Make sure you add the proper permissions to your device in order to be able to read and write secrets
Once you have created your SMC, you will get a config.json file or a base64 json encoded string containing the following keys:
- `hostname`
- `clientId`
- `privateKey`
- `serverPublicKeyId`
- `appKey`
- `appOwnerPublicKey`
This base64 encoded jsong string will be required to create your secretStores
## Important note about this documentation
_**The KepeerSecurity calls the entries in vaults 'Records'. These docs use the same term.**_
### Update secret store
Be sure the `keepersecurity` provider is listed in the `Kind=SecretStore`
```yaml
{% include 'keepersecurity-secret-store.yaml' %}
```
**NOTE 1:** `folderID` target the folder ID where the secrets should be pushed to. It requires write permissions within the folder
**NOTE 2:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `SecretAccessKeyRef` with the namespace of the secret that we just created.
## External Secrets
### Behavior
* How a Record is equated to an ExternalSecret:
* `remoteRef.key` is equated to a Record's ID
* `remoteRef.property` is equated to one of the following options:
* Fields: [Record's field's Type](https://docs.keeper.io/secrets-manager/secrets-manager/about/field-record-types)
* CustomFields: Record's field's Label
* Files: Record's file's Name
* If empty, defaults to the complete Record in JSON format
* `remoteRef.version` is currently not supported.
* `dataFrom`:
* `find.path` is currently not supported.
* `find.name.regexp` is equated to one of the following options:
* Fields: Record's field's Type
* CustomFields: Record's field's Label
* Files: Record's file's Name
* `find.tags` are not supported at this time.
**NOTE:** For complex [types](https://docs.keeper.io/secrets-manager/secrets-manager/about/field-record-types), like name, phone, bankAccount, which does not match with a single string value, external secrets will return the complete json string. Use the json template functions to decode.
### Creating external secret
To create a kubernetes secret from Keeper Secret Manager secret a `Kind=ExternalSecret` is needed.
```yaml
{% include 'keepersecurity-external-secret.yaml' %}
```
The operator will fetch the Keeper Secret Manager secret and inject it as a `Kind=Secret`
```
kubectl get secret secret-to-be-created -n <namespace> | -o jsonpath='{.data.dev-secret-test}' | base64 -d
```
## Limitations
There are some limitations using this provider.
* Keeper Secret Manager does not work with `General` Records types nor legacy non-typed records
* Using tags `find.tags` is not supported by KSM
* Using path `find.path` is not supported at the moment
## Push Secrets
Push Secret will only work with a custom KeeperSecurity Record type `externalSecrets`
### Behavior
* `selector`:
* `secret.name`: name of the kubernetes secret to be pushed
* `data.match`:
* `secretKey`: key on the selected secret to be pushed
* `remoteRef.remoteKey`: Secret and key to be created on the remote provider
* Format: SecretName/SecretKey
### Creating push secret
To create a Keeper Security record from kubernetes a `Kind=PushSecret` is needed.
```yaml
{% include 'keepersecurity-push-secret.yaml' %}
```
### Limitations
* Only possible to push one key per secret at the moment
* If the record with the selected name exists but the key does not exists the record can not be updated. See [Ability to add custom fields to existing secret #17](https://github.com/Keeper-Security/secrets-manager-go/issues/17) | external secrets | Keeper Security External Secrets Operator integrates with Keeper Security https www keepersecurity com for secret management by using Keeper Secrets Manager https docs keeper io secrets manager secrets manager about Authentication Secrets Manager Configuration SMC KSM can authenticate using One Time Access Token or Secret Manager Configuration In order to work with External Secret Operator we need to configure a Secret Manager Configuration Creating Secrets Manager Configuration You can find the documentation for the Secret Manager Configuration creation here https docs keeper io secrets manager secrets manager about secrets manager configuration Make sure you add the proper permissions to your device in order to be able to read and write secrets Once you have created your SMC you will get a config json file or a base64 json encoded string containing the following keys hostname clientId privateKey serverPublicKeyId appKey appOwnerPublicKey This base64 encoded jsong string will be required to create your secretStores Important note about this documentation The KepeerSecurity calls the entries in vaults Records These docs use the same term Update secret store Be sure the keepersecurity provider is listed in the Kind SecretStore yaml include keepersecurity secret store yaml NOTE 1 folderID target the folder ID where the secrets should be pushed to It requires write permissions within the folder NOTE 2 In case of a ClusterSecretStore Be sure to provide namespace for SecretAccessKeyRef with the namespace of the secret that we just created External Secrets Behavior How a Record is equated to an ExternalSecret remoteRef key is equated to a Record s ID remoteRef property is equated to one of the following options Fields Record s field s Type https docs keeper io secrets manager secrets manager about field record types CustomFields Record s field s Label Files Record s file s Name If empty defaults to the complete Record in JSON format remoteRef version is currently not supported dataFrom find path is currently not supported find name regexp is equated to one of the following options Fields Record s field s Type CustomFields Record s field s Label Files Record s file s Name find tags are not supported at this time NOTE For complex types https docs keeper io secrets manager secrets manager about field record types like name phone bankAccount which does not match with a single string value external secrets will return the complete json string Use the json template functions to decode Creating external secret To create a kubernetes secret from Keeper Secret Manager secret a Kind ExternalSecret is needed yaml include keepersecurity external secret yaml The operator will fetch the Keeper Secret Manager secret and inject it as a Kind Secret kubectl get secret secret to be created n namespace o jsonpath data dev secret test base64 d Limitations There are some limitations using this provider Keeper Secret Manager does not work with General Records types nor legacy non typed records Using tags find tags is not supported by KSM Using path find path is not supported at the moment Push Secrets Push Secret will only work with a custom KeeperSecurity Record type externalSecrets Behavior selector secret name name of the kubernetes secret to be pushed data match secretKey key on the selected secret to be pushed remoteRef remoteKey Secret and key to be created on the remote provider Format SecretName SecretKey Creating push secret To create a Keeper Security record from kubernetes a Kind PushSecret is needed yaml include keepersecurity push secret yaml Limitations Only possible to push one key per secret at the moment If the record with the selected name exists but the key does not exists the record can not be updated See Ability to add custom fields to existing secret 17 https github com Keeper Security secrets manager go issues 17 |
external secrets around the SDK that runs as a separate service providing ESO with a light REST API to pull secrets through size the bitwarden Rust SDK libraries are over 150MB in size it has been decided to create a soft wrapper Prerequisites Bitwarden Secrets Manager Provider This section describes how to set up the Bitwarden Secrets Manager provider for External Secrets Operator ESO The Bitwarden SDK is Rust based and requires CGO enabled In order to not restrict the capabilities of ESO and the image In order for the bitwarden provider to work we need a second service This service is the | ## Bitwarden Secrets Manager Provider
This section describes how to set up the Bitwarden Secrets Manager provider for External Secrets Operator (ESO).
### Prerequisites
In order for the bitwarden provider to work, we need a second service. This service is the [Bitwarden SDK Server](https://github.com/external-secrets/bitwarden-sdk-server).
The Bitwarden SDK is Rust based and requires CGO enabled. In order to not restrict the capabilities of ESO, and the image
size ( the bitwarden Rust SDK libraries are over 150MB in size ) it has been decided to create a soft wrapper
around the SDK that runs as a separate service providing ESO with a light REST API to pull secrets through.
#### Bitwarden SDK server
The server itself can be installed together with ESO. The ESO Helm Chart packages this service as a dependency.
The Bitwarden SDK Server's full name is hardcoded to bitwarden-sdk-server. This is so that the exposed service URL
gets a determinable endpoint.
In order to install the service install ESO with the following helm directive:
```
helm install external-secrets \
external-secrets/external-secrets \
-n external-secrets \
--create-namespace \
--set bitwarden-sdk-server.enabled=true
```
##### Certificate
The Bitwarden SDK Server _NEEDS_ to run as an HTTPS service. That means that any installation that wants to communicate with the Bitwarden
provider will need to generate a certificate. The best approach for that is to use cert-manager. It's easy to set up
and can generate a certificate that the store can use to connect with the server.
For a sample set up look at the bitwarden sdk server's test setup. It contains a self-signed certificate issuer for
cert-manager.
### External secret store
With that out of the way, let's take a look at how a secret store would look like.
```yaml
{% include 'bitwarden-secrets-manager-secret-store.yaml' %}
```
The api url and identity url are optional. The secret should contain the token for the Machine account for bitwarden.
!!! note inline end
Make sure that the machine account has Read-Write access to the Project that the secrets are in.
!!! note inline end
A secret store is organization/project dependent. Meaning a 1 store == 1 organization/project. This is so that we ensure
that no other project's secrets can be modified accidentally _or_ intentionally.
### External Secrets
There are two ways to fetch secrets from the provider.
#### Find by UUID
In order to fetch a secret by using its UUID simply provide that as remote key in the external secrets like this:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: bitwarden
spec:
refreshInterval: 1h
secretStoreRef:
# This name must match the metadata.name in the `SecretStore`
name: bitwarden-secretsmanager
kind: SecretStore
data:
- secretKey: test
remoteRef:
key: "339062b8-a5a1-4303-bf1d-b1920146a622"
```
#### Find by Name
To find a secret using its name, we need a bit more information. Mainly, these are the rules to find a secret:
- if name is a UUID get the secret
- if name is NOT a UUID Property is mandatory that defines the projectID to look for
- if name + projectID + organizationID matches, we return that secret
- if more than one name exists for the same projectID within the same organization we error
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: bitwarden
spec:
refreshInterval: 1h
secretStoreRef:
# This name must match the metadata.name in the `SecretStore`
name: bitwarden-secretsmanager
kind: SecretStore
data:
- secretKey: test
remoteRef:
key: "secret-name"
```
### Push Secret
Pushing a secret is also implemented. Pushing a secret requires even more restrictions because Bitwarden Secrets Manager
allows creating the same secret with the same key multiple times. In order to avoid overwriting, or potentially, returning
the wrong secret, we restrict push secret with the following rules:
- name, projectID, organizationID and value AND NOTE equal, we won't push it again.
- name, projectID, organizationID and ONLY the value does not equal ( INCLUDING THE NOTE ) we update
- any of the above isn't true, we create the secret ( this means that it will create a secret in a separate project )
```yaml
apiVersion: external-secrets.io/v1alpha1
kind: PushSecret
metadata:
name: pushsecret-bitwarden # Customisable
spec:
refreshInterval: 1h # Refresh interval for which push secret will reconcile
secretStoreRefs: # A list of secret stores to push secrets to
- name: bitwarden-secretsmanager
kind: SecretStore
selector:
secret:
name: my-secret # Source Kubernetes secret to be pushed
data:
- match:
secretKey: key # Source Kubernetes secret key to be pushed
remoteRef:
remoteKey: remote-key-name # Remote reference (where the secret is going to be pushed)
metadata:
note: "Note of the secret to add."
``` | external secrets | Bitwarden Secrets Manager Provider This section describes how to set up the Bitwarden Secrets Manager provider for External Secrets Operator ESO Prerequisites In order for the bitwarden provider to work we need a second service This service is the Bitwarden SDK Server https github com external secrets bitwarden sdk server The Bitwarden SDK is Rust based and requires CGO enabled In order to not restrict the capabilities of ESO and the image size the bitwarden Rust SDK libraries are over 150MB in size it has been decided to create a soft wrapper around the SDK that runs as a separate service providing ESO with a light REST API to pull secrets through Bitwarden SDK server The server itself can be installed together with ESO The ESO Helm Chart packages this service as a dependency The Bitwarden SDK Server s full name is hardcoded to bitwarden sdk server This is so that the exposed service URL gets a determinable endpoint In order to install the service install ESO with the following helm directive helm install external secrets external secrets external secrets n external secrets create namespace set bitwarden sdk server enabled true Certificate The Bitwarden SDK Server NEEDS to run as an HTTPS service That means that any installation that wants to communicate with the Bitwarden provider will need to generate a certificate The best approach for that is to use cert manager It s easy to set up and can generate a certificate that the store can use to connect with the server For a sample set up look at the bitwarden sdk server s test setup It contains a self signed certificate issuer for cert manager External secret store With that out of the way let s take a look at how a secret store would look like yaml include bitwarden secrets manager secret store yaml The api url and identity url are optional The secret should contain the token for the Machine account for bitwarden note inline end Make sure that the machine account has Read Write access to the Project that the secrets are in note inline end A secret store is organization project dependent Meaning a 1 store 1 organization project This is so that we ensure that no other project s secrets can be modified accidentally or intentionally External Secrets There are two ways to fetch secrets from the provider Find by UUID In order to fetch a secret by using its UUID simply provide that as remote key in the external secrets like this yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name bitwarden spec refreshInterval 1h secretStoreRef This name must match the metadata name in the SecretStore name bitwarden secretsmanager kind SecretStore data secretKey test remoteRef key 339062b8 a5a1 4303 bf1d b1920146a622 Find by Name To find a secret using its name we need a bit more information Mainly these are the rules to find a secret if name is a UUID get the secret if name is NOT a UUID Property is mandatory that defines the projectID to look for if name projectID organizationID matches we return that secret if more than one name exists for the same projectID within the same organization we error yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name bitwarden spec refreshInterval 1h secretStoreRef This name must match the metadata name in the SecretStore name bitwarden secretsmanager kind SecretStore data secretKey test remoteRef key secret name Push Secret Pushing a secret is also implemented Pushing a secret requires even more restrictions because Bitwarden Secrets Manager allows creating the same secret with the same key multiple times In order to avoid overwriting or potentially returning the wrong secret we restrict push secret with the following rules name projectID organizationID and value AND NOTE equal we won t push it again name projectID organizationID and ONLY the value does not equal INCLUDING THE NOTE we update any of the above isn t true we create the secret this means that it will create a secret in a separate project yaml apiVersion external secrets io v1alpha1 kind PushSecret metadata name pushsecret bitwarden Customisable spec refreshInterval 1h Refresh interval for which push secret will reconcile secretStoreRefs A list of secret stores to push secrets to name bitwarden secretsmanager kind SecretStore selector secret name my secret Source Kubernetes secret to be pushed data match secretKey key Source Kubernetes secret key to be pushed remoteRef remoteKey remote key name Remote reference where the secret is going to be pushed metadata note Note of the secret to add |
external secrets To use RRSA authentication you should follow to assign the RAM role to external secrets operator We support Access key and RRSA authentication Alibaba Cloud Secrets Manager External Secrets Operator integrates with for secrets and Keys management Authentication |
## Alibaba Cloud Secrets Manager
External Secrets Operator integrates with [Alibaba Cloud Key Management Service](https://www.alibabacloud.com/help/en/key-management-service/latest/kms-what-is-key-management-service/) for secrets and Keys management.
### Authentication
We support Access key and RRSA authentication.
To use RRSA authentication, you should follow [Use RRSA to authorize pods to access different cloud services](https://www.alibabacloud.com/help/en/container-service-for-kubernetes/latest/use-rrsa-to-enforce-access-control/) to assign the RAM role to external-secrets operator.
#### Access Key authentication
To use `accessKeyID` and `accessKeySecrets`, simply create them as a regular `Kind: Secret` beforehand and associate it with the `SecretStore`:
```yaml
apiVersion: v1
kind: Secret
metadata:
name: secret-sample
data:
accessKeyID: bXlhd2Vzb21lYWNjZXNza2V5aWQ=
accessKeySecret: bXlhd2Vzb21lYWNjZXNza2V5c2VjcmV0
```
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secretstore-sample
spec:
provider:
alibaba:
regionID: ap-southeast-1
auth:
secretRef:
accessKeyIDSecretRef:
name: secret-sample
key: accessKeyID
accessKeySecretSecretRef:
name: secret-sample
key: accessKeySecret
```
#### RRSA authentication
When using RRSA authentication we manually project the OIDC token file to pod as volume
```yaml
extraVolumes:
- name: oidc-token
projected:
sources:
- serviceAccountToken:
path: oidc-token
expirationSeconds: 7200 # The validity period of the OIDC token in seconds.
audience: "sts.aliyuncs.com"
extraVolumeMounts:
- name: oidc-token
mountPath: /var/run/secrets/tokens
```
and provide the RAM role ARN and OIDC volume path to the secret store
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secretstore-sample
spec:
provider:
alibaba:
regionID: ap-southeast-1
auth:
rrsa:
oidcProviderArn: acs:ram::1234:oidc-provider/ack-rrsa-ce123456
oidcTokenFilePath: /var/run/secrets/tokens/oidc-token
roleArn: acs:ram::1234:role/test-role
sessionName: secrets
```
### Creating external secret
To create a kubernetes secret from the Alibaba Cloud Key Management Service secret a `Kind=ExternalSecret` is needed.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: example
spec:
refreshInterval: 1h
secretStoreRef:
name: secretstore-sample
kind: SecretStore
target:
name: example-secret
creationPolicy: Owner
data:
- secretKey: secret-key
remoteRef:
key: ext-secret
``` | external secrets | Alibaba Cloud Secrets Manager External Secrets Operator integrates with Alibaba Cloud Key Management Service https www alibabacloud com help en key management service latest kms what is key management service for secrets and Keys management Authentication We support Access key and RRSA authentication To use RRSA authentication you should follow Use RRSA to authorize pods to access different cloud services https www alibabacloud com help en container service for kubernetes latest use rrsa to enforce access control to assign the RAM role to external secrets operator Access Key authentication To use accessKeyID and accessKeySecrets simply create them as a regular Kind Secret beforehand and associate it with the SecretStore yaml apiVersion v1 kind Secret metadata name secret sample data accessKeyID bXlhd2Vzb21lYWNjZXNza2V5aWQ accessKeySecret bXlhd2Vzb21lYWNjZXNza2V5c2VjcmV0 yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secretstore sample spec provider alibaba regionID ap southeast 1 auth secretRef accessKeyIDSecretRef name secret sample key accessKeyID accessKeySecretSecretRef name secret sample key accessKeySecret RRSA authentication When using RRSA authentication we manually project the OIDC token file to pod as volume yaml extraVolumes name oidc token projected sources serviceAccountToken path oidc token expirationSeconds 7200 The validity period of the OIDC token in seconds audience sts aliyuncs com extraVolumeMounts name oidc token mountPath var run secrets tokens and provide the RAM role ARN and OIDC volume path to the secret store yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secretstore sample spec provider alibaba regionID ap southeast 1 auth rrsa oidcProviderArn acs ram 1234 oidc provider ack rrsa ce123456 oidcTokenFilePath var run secrets tokens oidc token roleArn acs ram 1234 role test role sessionName secrets Creating external secret To create a kubernetes secret from the Alibaba Cloud Key Management Service secret a Kind ExternalSecret is needed yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name example spec refreshInterval 1h secretStoreRef name secretstore sample kind SecretStore target name example secret creationPolicy Owner data secretKey secret key remoteRef key ext secret |
external secrets raw First create a SecretStore with a webhook backend We ll use a static user password External Secrets Operator can integrate with simple web apis by specifying the endpoint Generic Webhook Example yaml | ## Generic Webhook
External Secrets Operator can integrate with simple web apis by specifying the endpoint
### Example
First, create a SecretStore with a webhook backend. We'll use a static user/password `test`:
```yaml
{% raw %}
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: webhook-backend
spec:
provider:
webhook:
url: "http://httpbin.org/get?parameter="
result:
jsonPath: "$.args.parameter"
headers:
Content-Type: application/json
Authorization: Basic
secrets:
- name: auth
secretRef:
name: webhook-credentials
{%- endraw %}
---
apiVersion: v1
kind: Secret
metadata:
name: webhook-credentials
data:
username: dGVzdA== # "test"
password: dGVzdA== # "test"
```
NB: This is obviously not practical because it just returns the key as the result, but it shows how it works
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in all `secrets` references with the namespaces where the secrets reside.
Now create an ExternalSecret that uses the above SecretStore:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: webhook-example
spec:
refreshInterval: "15s"
secretStoreRef:
name: webhook-backend
kind: SecretStore
target:
name: example-sync
data:
- secretKey: foobar
remoteRef:
key: secret
---
# will create a secret with:
kind: Secret
metadata:
name: example-sync
data:
foobar: c2VjcmV0
```
#### Limitations
Webhook does not support authorization, other than what can be sent by generating http headers
!!! note
If a webhook endpoint for a given `ExternalSecret` returns a 404 status code, the secret is considered to have been deleted. This will trigger the `deletionPolicy` set on the `ExternalSecret`.
### Templating
Generic WebHook provider uses the templating engine to generate the API call. It can be used in the url, headers, body and result.jsonPath fields.
The provider inserts the secret to be retrieved in the object named `remoteRef`.
In addition, secrets can be added as named objects, for example to use in authorization headers.
Each secret has a `name` property which determines the name of the object in the templating engine.
### All Parameters
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ClusterSecretStore
metadata:
name: statervault
spec:
provider:
webhook:
# Url to call. Use templating engine to fill in the request parameters
url: <url>
# http method, defaults to GET
method: <method>
# Timeout in duration (1s, 1m, etc)
timeout: 1s
result:
# [jsonPath](https://jsonpath.com) syntax, which also can be templated
jsonPath: <jsonPath>
# Map of headers, can be templated
headers:
<Header-Name>: <header contents>
# Body to sent as request, can be templated (optional)
body: <body>
# List of secrets to expose to the templating engine
secrets:
# Use this name to refer to this secret in templating, above
- name: <name>
secretRef:
namespace: <namespace> # Only used in ClusterSecretStores
name: <name>
# Add CAs here for the TLS handshake
caBundle: <base64 encoded cabundle>
caProvider:
type: Secret or ConfigMap
name: <name of secret or configmap>
namespace: <namespace> # Only used in ClusterSecretStores
key: <key inside secret>
```
### Webhook as generators
You can also leverage webhooks as generators, following the same syntax. The only difference is that the webhook generator needs its source secrets to be labeled, as opposed to webhook secretstores. Please see the [generator-webhook](../api/generator/webhook.md) documentation for more information. | external secrets | Generic Webhook External Secrets Operator can integrate with simple web apis by specifying the endpoint Example First create a SecretStore with a webhook backend We ll use a static user password test yaml raw apiVersion external secrets io v1beta1 kind SecretStore metadata name webhook backend spec provider webhook url http httpbin org get parameter result jsonPath args parameter headers Content Type application json Authorization Basic secrets name auth secretRef name webhook credentials endraw apiVersion v1 kind Secret metadata name webhook credentials data username dGVzdA test password dGVzdA test NB This is obviously not practical because it just returns the key as the result but it shows how it works NOTE In case of a ClusterSecretStore Be sure to provide namespace in all secrets references with the namespaces where the secrets reside Now create an ExternalSecret that uses the above SecretStore yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name webhook example spec refreshInterval 15s secretStoreRef name webhook backend kind SecretStore target name example sync data secretKey foobar remoteRef key secret will create a secret with kind Secret metadata name example sync data foobar c2VjcmV0 Limitations Webhook does not support authorization other than what can be sent by generating http headers note If a webhook endpoint for a given ExternalSecret returns a 404 status code the secret is considered to have been deleted This will trigger the deletionPolicy set on the ExternalSecret Templating Generic WebHook provider uses the templating engine to generate the API call It can be used in the url headers body and result jsonPath fields The provider inserts the secret to be retrieved in the object named remoteRef In addition secrets can be added as named objects for example to use in authorization headers Each secret has a name property which determines the name of the object in the templating engine All Parameters yaml apiVersion external secrets io v1beta1 kind ClusterSecretStore metadata name statervault spec provider webhook Url to call Use templating engine to fill in the request parameters url url http method defaults to GET method method Timeout in duration 1s 1m etc timeout 1s result jsonPath https jsonpath com syntax which also can be templated jsonPath jsonPath Map of headers can be templated headers Header Name header contents Body to sent as request can be templated optional body body List of secrets to expose to the templating engine secrets Use this name to refer to this secret in templating above name name secretRef namespace namespace Only used in ClusterSecretStores name name Add CAs here for the TLS handshake caBundle base64 encoded cabundle caProvider type Secret or ConfigMap name name of secret or configmap namespace namespace Only used in ClusterSecretStores key key inside secret Webhook as generators You can also leverage webhooks as generators following the same syntax The only difference is that the webhook generator needs its source secrets to be labeled as opposed to webhook secretstores Please see the generator webhook api generator webhook md documentation for more information |
external secrets Parameter Store defined region You should define Roles that define fine grained access to way users of the can only access the secrets necessary A points to AWS SSM Parameter Store in a certain account within a individual secrets and pass them to ESO using This |
![aws sm](../pictures/diagrams-provider-aws-ssm-parameter-store.png)
## Parameter Store
A `ParameterStore` points to AWS SSM Parameter Store in a certain account within a
defined region. You should define Roles that define fine-grained access to
individual secrets and pass them to ESO using `spec.provider.aws.role`. This
way users of the `SecretStore` can only access the secrets necessary.
``` yaml
{% include 'aws-parameter-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `accessKeyIDSecretRef` and `secretAccessKeySecretRef` with the namespaces where the secrets reside.
!!! warning "API Pricing & Throttling"
The SSM Parameter Store API is charged by throughput and
is available in different tiers, [see pricing](https://aws.amazon.com/systems-manager/pricing/#Parameter_Store).
Please estimate your costs before using ESO. Cost depends on the RefreshInterval of your ExternalSecrets.
### IAM Policy
#### Fetching Parameters
The example policy below shows the minimum required permissions for fetching SSM parameters. This policy permits pinning down access to secrets with a path matching `dev-*`. Other operations may require additional permission. For example, finding parameters based on tags will also require `ssm:DescribeParameters` and `tag:GetResources` permission with `"Resource": "*"`. Generally, the specific permission required will be logged as an error if an operation fails.
For further information see [AWS Documentation](https://docs.aws.amazon.com/systems-manager/latest/userguide/sysman-paramstore-access.html).
``` json
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"ssm:GetParameter*",
],
"Resource": "arn:aws:ssm:us-east-2:1234567889911:parameter/dev-*"
}
]
}
```
#### Pushing Parameters
The example policy below shows the minimum required permissions for pushing SSM parameters. Like with the fetching policy it restricts the path in which it can push secrets too.
``` json
{
"Action": [
"ssm:GetParameter*",
"ssm:PutParameter*",
"ssm:AddTagsToResource",
"ssm:ListTagsForResource"
],
"Effect": "Allow",
"Resource": "arn:aws:ssm:us-east-2:1234567889911:parameter/dev-*"
}
```
### JSON Secret Values
You can store JSON objects in a parameter. You can access nested values or arrays using [gjson syntax](https://github.com/tidwall/gjson/blob/master/SYNTAX.md):
Consider the following JSON object that is stored in the Parameter Store key `friendslist`:
``` json
{
"name": {"first": "Tom", "last": "Anderson"},
"friends": [
{"first": "Dale", "last": "Murphy"},
{"first": "Roger", "last": "Craig"},
{"first": "Jane", "last": "Murphy"}
]
}
```
This is an example on how you would look up nested keys in the above json object:
``` yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: extract-data
spec:
# [omitted for brevity]
data:
- secretKey: my_name
remoteRef:
key: friendslist
property: name.first # Tom
- secretKey: first_friend
remoteRef:
key: friendslist
property: friends.1.first # Roger
# metadataPolicy to fetch all the tags in JSON format
- secretKey: tags
remoteRef:
metadataPolicy: Fetch
key: database-credentials
# metadataPolicy to fetch a specific tag (dev) from the source secret
- secretKey: developer
remoteRef:
metadataPolicy: Fetch
key: database-credentials
property: dev
```
### Parameter Versions
ParameterStore creates a new version of a parameter every time it is updated with a new value. The parameter can be referenced via the `version` property
## SetSecret
The SetSecret method for the Parameter Store allows the user to set the value stored within the Kubernetes cluster to the remote AWS Parameter Store.
### Creating a Push Secret
```yaml
{% include "full-pushsecret.yaml" %}
```
#### Additional Metadata for PushSecret
Optionally, it is possible to configure additional options for the parameter such as `Type` and encryption Key. To control this behaviour you can set the following provider's `metadata`:
```yaml
{% include 'aws-pm-push-secret-with-metadata.yaml' %}
```
`parameterStoreType` takes three options. `String`, `StringList`, and `SecureString`, where `String` is the _default_.
`parameterStoreKeyID` takes a KMS Key `$ID` or `$ARN` (in case a key source is created in another account) as a string, where `alias/aws/ssm` is the _default_. This property is only used if `parameterStoreType` is set as `SecureString`.
#### Check successful secret sync
To be able to check that the secret has been succesfully synced you can run the following command:
```bash
kubectl get pushsecret pushsecret-example
```
If the secret has synced successfully it will show the status as "Synced".
#### Test new secret using AWS CLI
To View your parameter on AWS Parameter Store using the AWS CLI, install and login to the AWS CLI using the following guide: [AWS CLI](https://aws.amazon.com/cli/).
Run the following commands to get your synchronized parameter from AWS Parameter Store:
```bash
aws ssm get-parameter --name=my-first-parameter --region=us-east-1
```
You should see something similar to the following output:
```json
{
"Parameter": {
"Name": "my-first-parameter",
"Type": "String",
"Value": "charmander",
"Version": 4,
"LastModifiedDate": "2022-09-15T13:04:31.098000-03:00",
"ARN": "arn:aws:ssm:us-east-1:1234567890123:parameter/my-first-parameter",
"DataType": "text"
}
}
```
--8<-- "snippets/provider-aws-access.md" | external secrets | aws sm pictures diagrams provider aws ssm parameter store png Parameter Store A ParameterStore points to AWS SSM Parameter Store in a certain account within a defined region You should define Roles that define fine grained access to individual secrets and pass them to ESO using spec provider aws role This way users of the SecretStore can only access the secrets necessary yaml include aws parameter store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in accessKeyIDSecretRef and secretAccessKeySecretRef with the namespaces where the secrets reside warning API Pricing Throttling The SSM Parameter Store API is charged by throughput and is available in different tiers see pricing https aws amazon com systems manager pricing Parameter Store Please estimate your costs before using ESO Cost depends on the RefreshInterval of your ExternalSecrets IAM Policy Fetching Parameters The example policy below shows the minimum required permissions for fetching SSM parameters This policy permits pinning down access to secrets with a path matching dev Other operations may require additional permission For example finding parameters based on tags will also require ssm DescribeParameters and tag GetResources permission with Resource Generally the specific permission required will be logged as an error if an operation fails For further information see AWS Documentation https docs aws amazon com systems manager latest userguide sysman paramstore access html json Version 2012 10 17 Statement Effect Allow Action ssm GetParameter Resource arn aws ssm us east 2 1234567889911 parameter dev Pushing Parameters The example policy below shows the minimum required permissions for pushing SSM parameters Like with the fetching policy it restricts the path in which it can push secrets too json Action ssm GetParameter ssm PutParameter ssm AddTagsToResource ssm ListTagsForResource Effect Allow Resource arn aws ssm us east 2 1234567889911 parameter dev JSON Secret Values You can store JSON objects in a parameter You can access nested values or arrays using gjson syntax https github com tidwall gjson blob master SYNTAX md Consider the following JSON object that is stored in the Parameter Store key friendslist json name first Tom last Anderson friends first Dale last Murphy first Roger last Craig first Jane last Murphy This is an example on how you would look up nested keys in the above json object yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name extract data spec omitted for brevity data secretKey my name remoteRef key friendslist property name first Tom secretKey first friend remoteRef key friendslist property friends 1 first Roger metadataPolicy to fetch all the tags in JSON format secretKey tags remoteRef metadataPolicy Fetch key database credentials metadataPolicy to fetch a specific tag dev from the source secret secretKey developer remoteRef metadataPolicy Fetch key database credentials property dev Parameter Versions ParameterStore creates a new version of a parameter every time it is updated with a new value The parameter can be referenced via the version property SetSecret The SetSecret method for the Parameter Store allows the user to set the value stored within the Kubernetes cluster to the remote AWS Parameter Store Creating a Push Secret yaml include full pushsecret yaml Additional Metadata for PushSecret Optionally it is possible to configure additional options for the parameter such as Type and encryption Key To control this behaviour you can set the following provider s metadata yaml include aws pm push secret with metadata yaml parameterStoreType takes three options String StringList and SecureString where String is the default parameterStoreKeyID takes a KMS Key ID or ARN in case a key source is created in another account as a string where alias aws ssm is the default This property is only used if parameterStoreType is set as SecureString Check successful secret sync To be able to check that the secret has been succesfully synced you can run the following command bash kubectl get pushsecret pushsecret example If the secret has synced successfully it will show the status as Synced Test new secret using AWS CLI To View your parameter on AWS Parameter Store using the AWS CLI install and login to the AWS CLI using the following guide AWS CLI https aws amazon com cli Run the following commands to get your synchronized parameter from AWS Parameter Store bash aws ssm get parameter name my first parameter region us east 1 You should see something similar to the following output json Parameter Name my first parameter Type String Value charmander Version 4 LastModifiedDate 2022 09 15T13 04 31 098000 03 00 ARN arn aws ssm us east 1 1234567890123 parameter my first parameter DataType text 8 snippets provider aws access md |
external secrets Doppler SecretOps Platform Authentication Sync secrets from the to Kubernetes using the External Secrets Operator Doppler are recommended as they restrict access to a single config | ![Doppler External Secrets Provider](../pictures/doppler-provider-header.jpg)
## Doppler SecretOps Platform
Sync secrets from the [Doppler SecretOps Platform](https://www.doppler.com/) to Kubernetes using the External Secrets Operator.
## Authentication
Doppler [Service Tokens](https://docs.doppler.com/docs/service-tokens) are recommended as they restrict access to a single config.
![Doppler Service Token](../pictures/doppler-service-tokens.png)
> NOTE: Doppler Personal Tokens are also supported but require `project` and `config` to be set on the `SecretStore` or `ClusterSecretStore`.
Create the Doppler Token secret by opening the Doppler dashboard and navigating to the desired Project and Config, then create a new Service Token from the **Access** tab:
![Create Doppler Service Token](../pictures/doppler-create-service-token.jpg)
Create the Doppler Token Kubernetes secret with your Service Token value:
```sh
HISTIGNORE='*kubectl*' kubectl create secret generic \
doppler-token-auth-api \
--from-literal dopplerToken="dp.st.xxxx"
```
Then to create a generic `SecretStore`:
```yaml
{% include 'doppler-generic-secret-store.yaml' %}
```
> **NOTE:** In case of a `ClusterSecretStore`, be sure to set `namespace` in `secretRef.dopplerToken`.
## Use Cases
The Doppler provider allows for a wide range of use cases:
1. [Fetch](#1-fetch)
2. [Fetch all](#2-fetch-all)
3. [Filter](#3-filter)
4. [JSON secret](#4-json-secret)
5. [Name transformer](#5-name-transformer)
6. [Download](#6-download)
Let's explore each use case using a fictional `auth-api` Doppler project.
## 1. Fetch
To sync one or more individual secrets:
``` yaml
{% include 'doppler-fetch-secret.yaml' %}
```
![Doppler fetch](../pictures/doppler-fetch.png)
## 2. Fetch all
To sync every secret from a config:
``` yaml
{% include 'doppler-fetch-all-secrets.yaml' %}
```
![Doppler fetch all](../pictures/doppler-fetch-all.png)
## 3. Filter
To filter secrets by `path` (path prefix), `name` (regular expression) or a combination of both:
``` yaml
{% include 'doppler-filtered-secrets.yaml' %}
```
![Doppler filter](../pictures/doppler-filter.png)
## 4. JSON secret
To parse a JSON secret to its key-value pairs:
``` yaml
{% include 'doppler-parse-json-secret.yaml' %}
```
![Doppler JSON Secret](../pictures/doppler-json.png)
## 5. Name transformer
Name transformers format keys from Doppler's UPPER_SNAKE_CASE to one of the following alternatives:
- upper-camel
- camel
- lower-snake
- tf-var
- dotnet-env
- lower-kebab
Name transformers require a specifically configured `SecretStore`:
```yaml
{% include 'doppler-name-transformer-secret-store.yaml' %}
```
Then an `ExternalSecret` referencing the `SecretStore`:
```yaml
{% include 'doppler-name-transformer-external-secret.yaml' %}
```
![Doppler name transformer](../pictures/doppler-name-transformer.png)
### 6. Download
A single `DOPPLER_SECRETS_FILE` key is set where the value is the secrets downloaded in one of the following formats:
- json
- dotnet-json
- env
- env-no-quotes
- yaml
Downloading secrets requires a specifically configured `SecretStore`:
```yaml
{% include 'doppler-secrets-download-secret-store.yaml' %}
```
Then an `ExternalSecret` referencing the `SecretStore`:
```yaml
{% include 'doppler-secrets-download-external-secret.yaml' %}
```
![Doppler download](../pictures/doppler-download.png) | external secrets | Doppler External Secrets Provider pictures doppler provider header jpg Doppler SecretOps Platform Sync secrets from the Doppler SecretOps Platform https www doppler com to Kubernetes using the External Secrets Operator Authentication Doppler Service Tokens https docs doppler com docs service tokens are recommended as they restrict access to a single config Doppler Service Token pictures doppler service tokens png NOTE Doppler Personal Tokens are also supported but require project and config to be set on the SecretStore or ClusterSecretStore Create the Doppler Token secret by opening the Doppler dashboard and navigating to the desired Project and Config then create a new Service Token from the Access tab Create Doppler Service Token pictures doppler create service token jpg Create the Doppler Token Kubernetes secret with your Service Token value sh HISTIGNORE kubectl kubectl create secret generic doppler token auth api from literal dopplerToken dp st xxxx Then to create a generic SecretStore yaml include doppler generic secret store yaml NOTE In case of a ClusterSecretStore be sure to set namespace in secretRef dopplerToken Use Cases The Doppler provider allows for a wide range of use cases 1 Fetch 1 fetch 2 Fetch all 2 fetch all 3 Filter 3 filter 4 JSON secret 4 json secret 5 Name transformer 5 name transformer 6 Download 6 download Let s explore each use case using a fictional auth api Doppler project 1 Fetch To sync one or more individual secrets yaml include doppler fetch secret yaml Doppler fetch pictures doppler fetch png 2 Fetch all To sync every secret from a config yaml include doppler fetch all secrets yaml Doppler fetch all pictures doppler fetch all png 3 Filter To filter secrets by path path prefix name regular expression or a combination of both yaml include doppler filtered secrets yaml Doppler filter pictures doppler filter png 4 JSON secret To parse a JSON secret to its key value pairs yaml include doppler parse json secret yaml Doppler JSON Secret pictures doppler json png 5 Name transformer Name transformers format keys from Doppler s UPPER SNAKE CASE to one of the following alternatives upper camel camel lower snake tf var dotnet env lower kebab Name transformers require a specifically configured SecretStore yaml include doppler name transformer secret store yaml Then an ExternalSecret referencing the SecretStore yaml include doppler name transformer external secret yaml Doppler name transformer pictures doppler name transformer png 6 Download A single DOPPLER SECRETS FILE key is set where the value is the secrets downloaded in one of the following formats json dotnet json env env no quotes yaml Downloading secrets requires a specifically configured SecretStore yaml include doppler secrets download secret store yaml Then an ExternalSecret referencing the SecretStore yaml include doppler secrets download external secret yaml Doppler download pictures doppler download png |
external secrets Google Cloud Secret Manager External Secrets Operator integrates with for secret management Workload Identity Authentication Your Google Kubernetes Engine GKE applications can consume GCP services like Secrets Manager without using static long lived authentication tokens This is our recommended approach of handling credentials in GCP ESO offers two options for integrating with GKE workload identity pod based workload identity and using service accounts directly Before using either way you need to create a service account this is covered below | ## Google Cloud Secret Manager
External Secrets Operator integrates with [GCP Secret Manager](https://cloud.google.com/secret-manager) for secret management.
## Authentication
### Workload Identity
Your Google Kubernetes Engine (GKE) applications can consume GCP services like Secrets Manager without using static, long-lived authentication tokens. This is our recommended approach of handling credentials in GCP. ESO offers two options for integrating with GKE workload identity: **pod-based workload identity** and **using service accounts directly**. Before using either way you need to create a service account - this is covered below.
#### Creating Workload Identity Service Accounts
You can find the documentation for Workload Identity [here](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity). We will walk you through how to navigate it here.
Search [the document](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity) for this editable values and change them to your values:
_Note: If you have installed ESO, a serviceaccount has already been created. You can either patch the existing `external-secrets` SA or create a new one that fits your needs._
- `CLUSTER_NAME`: The name of your cluster
- `PROJECT_ID`: Your project ID (not your Project number nor your Project name)
- `K8S_NAMESPACE`: For us following these steps here it will be `es`, but this will be the namespace where you deployed the external-secrets operator
- `KSA_NAME`: external-secrets (if you are not creating a new one to attach to the deployment)
- `GSA_NAME`: external-secrets for simplicity, or something else if you have to follow different naming conventions for cloud resources
- `ROLE_NAME`: should be `roles/secretmanager.secretAccessor` - so you make the pod only be able to access secrets on Secret Manager
#### Using Service Accounts directly
Let's assume you have created a service account correctly and attached a appropriate workload identity. It should roughly look like this:
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-secrets
namespace: es
annotations:
iam.gke.io/gcp-service-account: [email protected]
```
You can reference this particular ServiceAccount in a `SecretStore` or `ClusterSecretStore`. It's important that you also set the `projectID`, `clusterLocation` and `clusterName`. The Namespace on the `serviceAccountRef` is ignored when using a `SecretStore` resource. This is needed to isolate the namespaces properly.
*When filling `clusterLocation` parameter keep in mind if it is Regional or Zonal cluster.*
```yaml
{% include 'gcpsm-wi-secret-store.yaml' %}
```
*You need to give the Google service account the `roles/iam.serviceAccountTokenCreator` role so it can generate a service account token for you (not necessary in the Pod-based Workload Identity bellow)*
#### Using Pod-based Workload Identity
You can attach a Workload Identity directly to the ESO pod. ESO then has access to all the APIs defined in the attached service account policy. You attach the workload identity by (1) creating a service account with a attached workload identity (described above) and (2) using this particular service account in the pod's `serviceAccountName` field.
For this example we will assume that you installed ESO using helm and that you named the chart installation `external-secrets` and the namespace where it lives `es` like:
```sh
helm install external-secrets external-secrets/external-secrets --namespace es
```
Then most of the resources would have this name, the important one here being the k8s service account attached to the external-secrets operator deployment:
```yaml
# ...
containers:
- image: ghcr.io/external-secrets/external-secrets:vVERSION
name: external-secrets
ports:
- containerPort: 8080
protocol: TCP
restartPolicy: Always
schedulerName: default-scheduler
serviceAccount: external-secrets
serviceAccountName: external-secrets # <--- here
```
The pod now has the identity. Now you need to configure the `SecretStore`.
You just need to set the `projectID`, all other fields can be omitted.
```yaml
{% include 'gcpsm-pod-wi-secret-store.yaml' %}
```
### GCP Service Account authentication
You can use [GCP Service Account](https://cloud.google.com/iam/docs/service-accounts) to authenticate with GCP. These are static, long-lived credentials. A GCP Service Account is a JSON file that needs to be stored in a `Kind=Secret`. ESO will use that Secret to authenticate with GCP. See here how you [manage GCP Service Accounts](https://cloud.google.com/iam/docs/creating-managing-service-accounts).
After creating a GCP Service account go to `IAM & Admin` web UI, click `ADD ANOTHER ROLE` button, add `Secret Manager Secret Accessor` role to this service account.
The `Secret Manager Secret Accessor` role is required to access secrets.
```yaml
{% include 'gcpsm-credentials-secret.yaml' %}
```
#### Update secret store
Be sure the `gcpsm` provider is listed in the `Kind=SecretStore`
```yaml
{% include 'gcpsm-secret-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `SecretAccessKeyRef` with the namespace of the secret that we just created.
#### Creating external secret
To create a kubernetes secret from the GCP Secret Manager secret a `Kind=ExternalSecret` is needed.
```yaml
{% include 'gcpsm-external-secret.yaml' %}
```
The operator will fetch the GCP Secret Manager secret and inject it as a `Kind=Secret`
```
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath='{.data.dev-secret-test}' | base64 -d
``` | external secrets | Google Cloud Secret Manager External Secrets Operator integrates with GCP Secret Manager https cloud google com secret manager for secret management Authentication Workload Identity Your Google Kubernetes Engine GKE applications can consume GCP services like Secrets Manager without using static long lived authentication tokens This is our recommended approach of handling credentials in GCP ESO offers two options for integrating with GKE workload identity pod based workload identity and using service accounts directly Before using either way you need to create a service account this is covered below Creating Workload Identity Service Accounts You can find the documentation for Workload Identity here https cloud google com kubernetes engine docs how to workload identity We will walk you through how to navigate it here Search the document https cloud google com kubernetes engine docs how to workload identity for this editable values and change them to your values Note If you have installed ESO a serviceaccount has already been created You can either patch the existing external secrets SA or create a new one that fits your needs CLUSTER NAME The name of your cluster PROJECT ID Your project ID not your Project number nor your Project name K8S NAMESPACE For us following these steps here it will be es but this will be the namespace where you deployed the external secrets operator KSA NAME external secrets if you are not creating a new one to attach to the deployment GSA NAME external secrets for simplicity or something else if you have to follow different naming conventions for cloud resources ROLE NAME should be roles secretmanager secretAccessor so you make the pod only be able to access secrets on Secret Manager Using Service Accounts directly Let s assume you have created a service account correctly and attached a appropriate workload identity It should roughly look like this yaml apiVersion v1 kind ServiceAccount metadata name external secrets namespace es annotations iam gke io gcp service account example team a my project iam gserviceaccount com You can reference this particular ServiceAccount in a SecretStore or ClusterSecretStore It s important that you also set the projectID clusterLocation and clusterName The Namespace on the serviceAccountRef is ignored when using a SecretStore resource This is needed to isolate the namespaces properly When filling clusterLocation parameter keep in mind if it is Regional or Zonal cluster yaml include gcpsm wi secret store yaml You need to give the Google service account the roles iam serviceAccountTokenCreator role so it can generate a service account token for you not necessary in the Pod based Workload Identity bellow Using Pod based Workload Identity You can attach a Workload Identity directly to the ESO pod ESO then has access to all the APIs defined in the attached service account policy You attach the workload identity by 1 creating a service account with a attached workload identity described above and 2 using this particular service account in the pod s serviceAccountName field For this example we will assume that you installed ESO using helm and that you named the chart installation external secrets and the namespace where it lives es like sh helm install external secrets external secrets external secrets namespace es Then most of the resources would have this name the important one here being the k8s service account attached to the external secrets operator deployment yaml containers image ghcr io external secrets external secrets vVERSION name external secrets ports containerPort 8080 protocol TCP restartPolicy Always schedulerName default scheduler serviceAccount external secrets serviceAccountName external secrets here The pod now has the identity Now you need to configure the SecretStore You just need to set the projectID all other fields can be omitted yaml include gcpsm pod wi secret store yaml GCP Service Account authentication You can use GCP Service Account https cloud google com iam docs service accounts to authenticate with GCP These are static long lived credentials A GCP Service Account is a JSON file that needs to be stored in a Kind Secret ESO will use that Secret to authenticate with GCP See here how you manage GCP Service Accounts https cloud google com iam docs creating managing service accounts After creating a GCP Service account go to IAM Admin web UI click ADD ANOTHER ROLE button add Secret Manager Secret Accessor role to this service account The Secret Manager Secret Accessor role is required to access secrets yaml include gcpsm credentials secret yaml Update secret store Be sure the gcpsm provider is listed in the Kind SecretStore yaml include gcpsm secret store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace for SecretAccessKeyRef with the namespace of the secret that we just created Creating external secret To create a kubernetes secret from the GCP Secret Manager secret a Kind ExternalSecret is needed yaml include gcpsm external secret yaml The operator will fetch the GCP Secret Manager secret and inject it as a Kind Secret kubectl get secret secret to be created n namespace o jsonpath data dev secret test base64 d |
external secrets External Secrets Operator integrates with for secret management Hashicorp Vault The is the only one supported by this provider For other secrets engines please refer to the | ![HCP Vault](../pictures/diagrams-provider-vault.png)
## Hashicorp Vault
External Secrets Operator integrates with [HashiCorp Vault](https://www.vaultproject.io/) for secret management.
The [KV Secrets Engine](https://www.vaultproject.io/docs/secrets/kv) is the only
one supported by this provider. For other secrets engines, please refer to the
[Vault Generator](../api/generator/vault.md).
### Example
First, create a SecretStore with a vault backend. For the sake of simplicity we'll use a static token `root`:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: vault-backend
spec:
provider:
vault:
server: "http://my.vault.server:8200"
path: "secret"
# Version is the Vault KV secret engine version.
# This can be either "v1" or "v2", defaults to "v2"
version: "v2"
auth:
# points to a secret that contains a vault token
# https://www.vaultproject.io/docs/auth/token
tokenSecretRef:
name: "vault-token"
key: "token"
---
apiVersion: v1
kind: Secret
metadata:
name: vault-token
data:
token: cm9vdA== # "root"
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `tokenSecretRef` with the namespace of the secret that we just created.
Then create a simple k/v pair at path `secret/foo`:
```
vault kv put secret/foo my-value=s3cr3t
```
Can check kv version using following and check for `Options` column, it should indicate [version:2]:
```
vault secrets list -detailed
```
If you are using version: 1, just remember to update your SecretStore manifest appropriately
Now create a ExternalSecret that uses the above SecretStore:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
refreshInterval: "15s"
secretStoreRef:
name: vault-backend
kind: SecretStore
target:
name: example-sync
data:
- secretKey: foobar
remoteRef:
key: foo
property: my-value
# metadataPolicy to fetch all the labels in JSON format
- secretKey: tags
remoteRef:
metadataPolicy: Fetch
key: foo
# metadataPolicy to fetch a specific label (dev) from the source secret
- secretKey: developer
remoteRef:
metadataPolicy: Fetch
key: foo
property: dev
---
# That will automatically create a Kubernetes Secret with:
# apiVersion: v1
# kind: Secret
# metadata:
# name: example-sync
# data:
# foobar: czNjcjN0
```
Keep in mind that fetching the labels with `metadataPolicy: Fetch` only works with KV sercrets engine version v2.
#### Fetching Raw Values
You can fetch all key/value pairs for a given path If you leave the `remoteRef.property` empty. This returns the json-encoded secret value for that path.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
# ...
data:
- secretKey: foobar
remoteRef:
key: /dev/package.json
```
#### Nested Values
Vault supports nested key/value pairs. You can specify a [gjson](https://github.com/tidwall/gjson) expression at `remoteRef.property` to get a nested value.
Given the following secret - assume its path is `/dev/config`:
```json
{
"foo": {
"nested": {
"bar": "mysecret"
}
}
}
```
You can set the `remoteRef.property` to point to the nested key using a [gjson](https://github.com/tidwall/gjson) expression.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
# ...
data:
- secretKey: foobar
remoteRef:
key: /dev/config
property: foo.nested.bar
---
# creates a secret with:
# foobar=mysecret
```
If you would set the `remoteRef.property` to just `foo` then you would get the json-encoded value of that property: `{"nested":{"bar":"mysecret"}}`.
#### Multiple nested Values
You can extract multiple keys from a nested secret using `dataFrom`.
Given the following secret - assume its path is `/dev/config`:
```json
{
"foo": {
"nested": {
"bar": "mysecret",
"baz": "bang"
}
}
}
```
You can set the `remoteRef.property` to point to the nested key using a [gjson](https://github.com/tidwall/gjson) expression.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
# ...
dataFrom:
- extract:
key: /dev/config
property: foo.nested
```
That results in a secret with these values:
```
bar=mysecret
baz=bang
```
#### Getting multiple secrets
You can extract multiple secrets from Hashicorp vault by using `dataFrom.Find`
Currently, `dataFrom.Find` allows users to fetch secret names that match a given regexp pattern, or fetch secrets whose `custom_metadata` tags match a predefined set.
!!! warning
The way hashicorp Vault currently allows LIST operations is through the existence of a secret metadata. If you delete the secret, you will also need to delete the secret's metadata or this will currently make Find operations fail.
Given the following secret - assume its path is `/dev/config`:
```json
{
"foo": {
"nested": {
"bar": "mysecret",
"baz": "bang"
}
}
}
```
Also consider the following secret has the following `custom_metadata`:
```json
{
"environment": "dev",
"component": "app-1"
}
```
It is possible to find this secret by all the following possibilities:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
# ...
dataFrom:
- find: #will return every secret with 'dev' in it (including paths)
name:
regexp: dev
- find: #will return every secret matching environment:dev tags from dev/ folder and beyond
tags:
environment: dev
```
will generate a secret with:
```json
{
"dev_config":"{\"foo\":{\"nested\":{\"bar\":\"mysecret\",\"baz\":\"bang\"}}}"
}
```
Currently, `Find` operations are recursive throughout a given vault folder, starting on `provider.Path` definition. It is recommended to narrow down the scope of search by setting a `find.path` variable. This is also useful to automatically reduce the resulting secret key names:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: vault-example
spec:
# ...
dataFrom:
- find: #will return every secret from dev/ folder
path: dev
name:
regexp: ".*"
- find: #will return every secret matching environment:dev tags from dev/ folder
path: dev
tags:
environment: dev
```
Will generate a secret with:
```json
{
"config":"{\"foo\": {\"nested\": {\"bar\": \"mysecret\",\"baz\": \"bang\"}}}"
}
```
### Authentication
We support five different modes for authentication:
[token-based](https://www.vaultproject.io/docs/auth/token),
[appRole](https://www.vaultproject.io/docs/auth/approle),
[kubernetes-native](https://www.vaultproject.io/docs/auth/kubernetes),
[ldap](https://www.vaultproject.io/docs/auth/ldap),
[userPass](https://www.vaultproject.io/docs/auth/userpass),
[jwt/oidc](https://www.vaultproject.io/docs/auth/jwt),
[awsAuth](https://developer.hashicorp.com/vault/docs/auth/aws) and
[tlsCert](https://developer.hashicorp.com/vault/docs/auth/cert), each one comes with it's own
trade-offs. Depending on the authentication method you need to adapt your environment.
If you're using Vault namespaces, you can authenticate into one namespace and use the vault token against a different namespace, if desired.
#### Token-based authentication
A static token is stored in a `Kind=Secret` and is used to authenticate with vault.
```yaml
{% include 'vault-token-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `tokenSecretRef` with the namespace where the secret resides.
#### AppRole authentication example
[AppRole authentication](https://www.vaultproject.io/docs/auth/approle) reads the secret id from a
`Kind=Secret` and uses the specified `roleId` to aquire a temporary token to fetch secrets.
```yaml
{% include 'vault-approle-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretRef` with the namespace where the secret resides.
#### Kubernetes authentication
[Kubernetes-native authentication](https://www.vaultproject.io/docs/auth/kubernetes) has three
options of obtaining credentials for vault:
1. by using a service account jwt referenced in `serviceAccountRef`
2. by using the jwt from a `Kind=Secret` referenced by the `secretRef`
3. by using transient credentials from the mounted service account token within the
external-secrets operator
Vault validates the service account token by using the TokenReview API. ⚠️ You have to bind the `system:auth-delegator` ClusterRole to the service account that is used for authentication. Please follow the [Vault documentation](https://developer.hashicorp.com/vault/docs/auth/kubernetes#configuring-kubernetes).
```yaml
{% include 'vault-kubernetes-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `serviceAccountRef` or in `secretRef`, if used.
#### LDAP authentication
[LDAP authentication](https://www.vaultproject.io/docs/auth/ldap) uses
username/password pair to get an access token. Username is stored directly in
a `Kind=SecretStore` or `Kind=ClusterSecretStore` resource, password is stored
in a `Kind=Secret` referenced by the `secretRef`.
```yaml
{% include 'vault-ldap-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretRef` with the namespace where the secret resides.
#### UserPass authentication
[UserPass authentication](https://www.vaultproject.io/docs/auth/userpass) uses
username/password pair to get an access token. Username is stored directly in
a `Kind=SecretStore` or `Kind=ClusterSecretStore` resource, password is stored
in a `Kind=Secret` referenced by the `secretRef`.
```yaml
{% include 'vault-userpass-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretRef` with the namespace where the secret resides.
#### JWT/OIDC authentication
[JWT/OIDC](https://www.vaultproject.io/docs/auth/jwt) uses either a
[JWT](https://jwt.io/) token stored in a `Kind=Secret` and referenced by the
`secretRef` or a temporary Kubernetes service account token retrieved via the `TokenRequest` API. Optionally a `role` field can be defined in a `Kind=SecretStore`
or `Kind=ClusterSecretStore` resource.
```yaml
{% include 'vault-jwt-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretRef` with the namespace where the secret resides.
#### AWS IAM authentication
[AWS IAM](https://developer.hashicorp.com/vault/docs/auth/aws) uses either a
set of AWS Programmatic access credentials stored in a `Kind=Secret` and referenced by the
`secretRef` or by getting the authentication token from an [IRSA](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts.html) enabled service account
#### TLS certificates authentication
[TLS certificates auth method](https://developer.hashicorp.com/vault/docs/auth/cert) allows authentication using SSL/TLS client certificates which are either signed by a CA or self-signed. SSL/TLS client certificates are defined as having an ExtKeyUsage extension with the usage set to either ClientAuth or Any.
### Mutual authentication (mTLS)
Under specific compliance requirements, the Vault server can be set up to enforce mutual authentication from clients across all APIs by configuring the server with `tls_require_and_verify_client_cert = true`. This configuration differs fundamentally from the [TLS certificates auth method](#tls-certificates-authentication). While the TLS certificates auth method allows the issuance of a Vault token through the `/v1/auth/cert/login` API, the mTLS configuration solely focuses on TLS transport layer authentication and lacks any authorization-related capabilities. It's important to note that the Vault token must still be included in the request, following any of the supported authentication methods mentioned earlier.
```yaml
{% include 'vault-mtls-store.yaml' %}
```
### Access Key ID & Secret Access Key
You can store Access Key ID & Secret Access Key in a `Kind=Secret` and reference it from a SecretStore.
```yaml
{% include 'vault-iam-store-static-creds.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `accessKeyIDSecretRef`, `secretAccessKeySecretRef` with the namespaces where the secrets reside.
### EKS Service Account credentials
This feature lets you use short-lived service account tokens to authenticate with AWS.
You must have [Service Account Volume Projection](https://kubernetes.io/docs/tasks/configure-pod-container/configure-service-account/#service-account-token-volume-projection) enabled - it is by default on EKS. See [EKS guide](https://docs.aws.amazon.com/eks/latest/userguide/iam-roles-for-service-accounts-technical-overview.html) on how to set up IAM roles for service accounts.
The big advantage of this approach is that ESO runs without any credentials.
```yaml
{% include 'vault-iam-store-sa.yaml' %}
```
Reference the service account from above in the Secret Store:
```yaml
{% include 'vault-iam-store.yaml' %}
```
### Controller's Pod Identity
This is basicially a zero-configuration authentication approach that inherits the credentials from the controller's pod identity
This approach assumes that appropriate IRSA setup is done controller's pod (i.e. IRSA enabled IAM role is created appropriately and controller's service account is annotated appropriately with the annotation "eks.amazonaws.com/role-arn" to enable IRSA)
```yaml
{% include 'vault-iam-store-controller-pod-identity.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `serviceAccountRef` with the namespace where the service account resides.
```yaml
{% include 'vault-jwt-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` in `secretRef` with the namespace where the secret resides.
### PushSecret
Vault supports PushSecret features which allow you to sync a given Kubernetes secret key into a Hashicorp vault secret. To do so, it is expected that the secret key is a valid JSON object or that the `property` attribute has been specified under the `remoteRef`.
To use PushSecret, you need to give `create`, `read` and `update` permissions to the path where you want to push secrets for both `data` and `metadata` of the secret. Use it with care!
!!! note
Since Vault KV v1 API is not supported with storing secrets metadata, PushSecret will add a `custom_metadata` map to each secret in Vault that he will manage. It means pushing secret keys named `custom_metadata` is not supported with Vault KV v1.
Here is an example of how to set up `PushSecret`:
```yaml
{% include 'vault-pushsecret.yaml' %}
```
Note that in this example, we are generating two secrets in the target vault with the same structure but using different input formats.
### Vault Enterprise
#### Eventual Consistency and Performance Standby Nodes
When using Vault Enterprise with [performance standby nodes](https://www.vaultproject.io/docs/enterprise/consistency#performance-standby-nodes),
any follower can handle read requests immediately after the provider has
authenticated. Since Vault becomes eventually consistent in this mode, these
requests can fail if the login has not yet propagated to each server's local
state.
Below are two different solutions to this scenario. You'll need to review them
and pick the best fit for your environment and Vault configuration.
#### Vault Namespaces
[Vault namespaces](https://www.vaultproject.io/docs/enterprise/namespaces) are an enterprise feature that support multi-tenancy. You can specify a vault namespace using the `namespace` property when you define a SecretStore:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: vault-backend
spec:
provider:
vault:
server: "http://my.vault.server:8200"
# See https://www.vaultproject.io/docs/enterprise/namespaces
namespace: "ns1"
path: "secret"
version: "v2"
auth:
# ...
```
##### Authenticating into a different namespace
In some situations your authentication backend may be in one namespace, and your secrets in another. You can authenticate into one namespace, and use that token against another, by setting `provider.vault.namespace` and `provider.vault.auth.namespace` to different values. If `provider.vault.auth.namespace` is unset but `provider.vault.namespace` is, it will default to the `provider.vault.namespace` value.
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: vault-backend
spec:
provider:
vault:
server: "http://my.vault.server:8200"
# See https://www.vaultproject.io/docs/enterprise/namespaces
namespace: "app-team"
path: "secret"
version: "v2"
auth:
namespace: "kubernetes-team"
# ...
```
#### Read Your Writes
Vault 1.10.0 and later encodes information in the token to detect the case
when a server is behind. If a Vault server does not have information about
the provided token, [Vault returns a 412 error](https://www.vaultproject.io/docs/faq/ssct#q-is-there-anything-else-i-need-to-consider-to-achieve-consistency-besides-upgrading-to-vault-1-10)
so clients know to retry.
A method supported in versions Vault 1.7 and later is to utilize the
`X-Vault-Index` header returned on all write requests (including logins).
Passing this header back on subsequent requests instructs the Vault client
to retry the request until the server has an index greater than or equal
to that returned with the last write. Obviously though, this has a performance
hit because the read is blocked until the follower's local state has caught up.
#### Forward Inconsistent
Vault also supports proxying inconsistent requests to the current cluster leader
for immediate read-after-write consistency.
Vault 1.10.0 and later [support a replication configuration](https://www.vaultproject.io/docs/faq/ssct#q-is-there-a-new-configuration-that-this-feature-introduces) that detects when forwarding should occur and does it transparently to the client.
In Vault 1.7 forwarding can be achieved by setting the `X-Vault-Inconsistent`
header to `forward-active-node`. By default, this behavior is disabled and must
be explicitly enabled in the server's [replication configuration](https://www.vaultproject.io/docs/configuration/replication#allow_forwarding_via_header). | external secrets | HCP Vault pictures diagrams provider vault png Hashicorp Vault External Secrets Operator integrates with HashiCorp Vault https www vaultproject io for secret management The KV Secrets Engine https www vaultproject io docs secrets kv is the only one supported by this provider For other secrets engines please refer to the Vault Generator api generator vault md Example First create a SecretStore with a vault backend For the sake of simplicity we ll use a static token root yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name vault backend spec provider vault server http my vault server 8200 path secret Version is the Vault KV secret engine version This can be either v1 or v2 defaults to v2 version v2 auth points to a secret that contains a vault token https www vaultproject io docs auth token tokenSecretRef name vault token key token apiVersion v1 kind Secret metadata name vault token data token cm9vdA root NOTE In case of a ClusterSecretStore Be sure to provide namespace for tokenSecretRef with the namespace of the secret that we just created Then create a simple k v pair at path secret foo vault kv put secret foo my value s3cr3t Can check kv version using following and check for Options column it should indicate version 2 vault secrets list detailed If you are using version 1 just remember to update your SecretStore manifest appropriately Now create a ExternalSecret that uses the above SecretStore yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec refreshInterval 15s secretStoreRef name vault backend kind SecretStore target name example sync data secretKey foobar remoteRef key foo property my value metadataPolicy to fetch all the labels in JSON format secretKey tags remoteRef metadataPolicy Fetch key foo metadataPolicy to fetch a specific label dev from the source secret secretKey developer remoteRef metadataPolicy Fetch key foo property dev That will automatically create a Kubernetes Secret with apiVersion v1 kind Secret metadata name example sync data foobar czNjcjN0 Keep in mind that fetching the labels with metadataPolicy Fetch only works with KV sercrets engine version v2 Fetching Raw Values You can fetch all key value pairs for a given path If you leave the remoteRef property empty This returns the json encoded secret value for that path yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec data secretKey foobar remoteRef key dev package json Nested Values Vault supports nested key value pairs You can specify a gjson https github com tidwall gjson expression at remoteRef property to get a nested value Given the following secret assume its path is dev config json foo nested bar mysecret You can set the remoteRef property to point to the nested key using a gjson https github com tidwall gjson expression yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec data secretKey foobar remoteRef key dev config property foo nested bar creates a secret with foobar mysecret If you would set the remoteRef property to just foo then you would get the json encoded value of that property nested bar mysecret Multiple nested Values You can extract multiple keys from a nested secret using dataFrom Given the following secret assume its path is dev config json foo nested bar mysecret baz bang You can set the remoteRef property to point to the nested key using a gjson https github com tidwall gjson expression yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec dataFrom extract key dev config property foo nested That results in a secret with these values bar mysecret baz bang Getting multiple secrets You can extract multiple secrets from Hashicorp vault by using dataFrom Find Currently dataFrom Find allows users to fetch secret names that match a given regexp pattern or fetch secrets whose custom metadata tags match a predefined set warning The way hashicorp Vault currently allows LIST operations is through the existence of a secret metadata If you delete the secret you will also need to delete the secret s metadata or this will currently make Find operations fail Given the following secret assume its path is dev config json foo nested bar mysecret baz bang Also consider the following secret has the following custom metadata json environment dev component app 1 It is possible to find this secret by all the following possibilities yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec dataFrom find will return every secret with dev in it including paths name regexp dev find will return every secret matching environment dev tags from dev folder and beyond tags environment dev will generate a secret with json dev config foo nested bar mysecret baz bang Currently Find operations are recursive throughout a given vault folder starting on provider Path definition It is recommended to narrow down the scope of search by setting a find path variable This is also useful to automatically reduce the resulting secret key names yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name vault example spec dataFrom find will return every secret from dev folder path dev name regexp find will return every secret matching environment dev tags from dev folder path dev tags environment dev Will generate a secret with json config foo nested bar mysecret baz bang Authentication We support five different modes for authentication token based https www vaultproject io docs auth token appRole https www vaultproject io docs auth approle kubernetes native https www vaultproject io docs auth kubernetes ldap https www vaultproject io docs auth ldap userPass https www vaultproject io docs auth userpass jwt oidc https www vaultproject io docs auth jwt awsAuth https developer hashicorp com vault docs auth aws and tlsCert https developer hashicorp com vault docs auth cert each one comes with it s own trade offs Depending on the authentication method you need to adapt your environment If you re using Vault namespaces you can authenticate into one namespace and use the vault token against a different namespace if desired Token based authentication A static token is stored in a Kind Secret and is used to authenticate with vault yaml include vault token store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in tokenSecretRef with the namespace where the secret resides AppRole authentication example AppRole authentication https www vaultproject io docs auth approle reads the secret id from a Kind Secret and uses the specified roleId to aquire a temporary token to fetch secrets yaml include vault approle store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretRef with the namespace where the secret resides Kubernetes authentication Kubernetes native authentication https www vaultproject io docs auth kubernetes has three options of obtaining credentials for vault 1 by using a service account jwt referenced in serviceAccountRef 2 by using the jwt from a Kind Secret referenced by the secretRef 3 by using transient credentials from the mounted service account token within the external secrets operator Vault validates the service account token by using the TokenReview API You have to bind the system auth delegator ClusterRole to the service account that is used for authentication Please follow the Vault documentation https developer hashicorp com vault docs auth kubernetes configuring kubernetes yaml include vault kubernetes store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in serviceAccountRef or in secretRef if used LDAP authentication LDAP authentication https www vaultproject io docs auth ldap uses username password pair to get an access token Username is stored directly in a Kind SecretStore or Kind ClusterSecretStore resource password is stored in a Kind Secret referenced by the secretRef yaml include vault ldap store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretRef with the namespace where the secret resides UserPass authentication UserPass authentication https www vaultproject io docs auth userpass uses username password pair to get an access token Username is stored directly in a Kind SecretStore or Kind ClusterSecretStore resource password is stored in a Kind Secret referenced by the secretRef yaml include vault userpass store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretRef with the namespace where the secret resides JWT OIDC authentication JWT OIDC https www vaultproject io docs auth jwt uses either a JWT https jwt io token stored in a Kind Secret and referenced by the secretRef or a temporary Kubernetes service account token retrieved via the TokenRequest API Optionally a role field can be defined in a Kind SecretStore or Kind ClusterSecretStore resource yaml include vault jwt store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretRef with the namespace where the secret resides AWS IAM authentication AWS IAM https developer hashicorp com vault docs auth aws uses either a set of AWS Programmatic access credentials stored in a Kind Secret and referenced by the secretRef or by getting the authentication token from an IRSA https docs aws amazon com eks latest userguide iam roles for service accounts html enabled service account TLS certificates authentication TLS certificates auth method https developer hashicorp com vault docs auth cert allows authentication using SSL TLS client certificates which are either signed by a CA or self signed SSL TLS client certificates are defined as having an ExtKeyUsage extension with the usage set to either ClientAuth or Any Mutual authentication mTLS Under specific compliance requirements the Vault server can be set up to enforce mutual authentication from clients across all APIs by configuring the server with tls require and verify client cert true This configuration differs fundamentally from the TLS certificates auth method tls certificates authentication While the TLS certificates auth method allows the issuance of a Vault token through the v1 auth cert login API the mTLS configuration solely focuses on TLS transport layer authentication and lacks any authorization related capabilities It s important to note that the Vault token must still be included in the request following any of the supported authentication methods mentioned earlier yaml include vault mtls store yaml Access Key ID Secret Access Key You can store Access Key ID Secret Access Key in a Kind Secret and reference it from a SecretStore yaml include vault iam store static creds yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in accessKeyIDSecretRef secretAccessKeySecretRef with the namespaces where the secrets reside EKS Service Account credentials This feature lets you use short lived service account tokens to authenticate with AWS You must have Service Account Volume Projection https kubernetes io docs tasks configure pod container configure service account service account token volume projection enabled it is by default on EKS See EKS guide https docs aws amazon com eks latest userguide iam roles for service accounts technical overview html on how to set up IAM roles for service accounts The big advantage of this approach is that ESO runs without any credentials yaml include vault iam store sa yaml Reference the service account from above in the Secret Store yaml include vault iam store yaml Controller s Pod Identity This is basicially a zero configuration authentication approach that inherits the credentials from the controller s pod identity This approach assumes that appropriate IRSA setup is done controller s pod i e IRSA enabled IAM role is created appropriately and controller s service account is annotated appropriately with the annotation eks amazonaws com role arn to enable IRSA yaml include vault iam store controller pod identity yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace for serviceAccountRef with the namespace where the service account resides yaml include vault jwt store yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace in secretRef with the namespace where the secret resides PushSecret Vault supports PushSecret features which allow you to sync a given Kubernetes secret key into a Hashicorp vault secret To do so it is expected that the secret key is a valid JSON object or that the property attribute has been specified under the remoteRef To use PushSecret you need to give create read and update permissions to the path where you want to push secrets for both data and metadata of the secret Use it with care note Since Vault KV v1 API is not supported with storing secrets metadata PushSecret will add a custom metadata map to each secret in Vault that he will manage It means pushing secret keys named custom metadata is not supported with Vault KV v1 Here is an example of how to set up PushSecret yaml include vault pushsecret yaml Note that in this example we are generating two secrets in the target vault with the same structure but using different input formats Vault Enterprise Eventual Consistency and Performance Standby Nodes When using Vault Enterprise with performance standby nodes https www vaultproject io docs enterprise consistency performance standby nodes any follower can handle read requests immediately after the provider has authenticated Since Vault becomes eventually consistent in this mode these requests can fail if the login has not yet propagated to each server s local state Below are two different solutions to this scenario You ll need to review them and pick the best fit for your environment and Vault configuration Vault Namespaces Vault namespaces https www vaultproject io docs enterprise namespaces are an enterprise feature that support multi tenancy You can specify a vault namespace using the namespace property when you define a SecretStore yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name vault backend spec provider vault server http my vault server 8200 See https www vaultproject io docs enterprise namespaces namespace ns1 path secret version v2 auth Authenticating into a different namespace In some situations your authentication backend may be in one namespace and your secrets in another You can authenticate into one namespace and use that token against another by setting provider vault namespace and provider vault auth namespace to different values If provider vault auth namespace is unset but provider vault namespace is it will default to the provider vault namespace value yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name vault backend spec provider vault server http my vault server 8200 See https www vaultproject io docs enterprise namespaces namespace app team path secret version v2 auth namespace kubernetes team Read Your Writes Vault 1 10 0 and later encodes information in the token to detect the case when a server is behind If a Vault server does not have information about the provided token Vault returns a 412 error https www vaultproject io docs faq ssct q is there anything else i need to consider to achieve consistency besides upgrading to vault 1 10 so clients know to retry A method supported in versions Vault 1 7 and later is to utilize the X Vault Index header returned on all write requests including logins Passing this header back on subsequent requests instructs the Vault client to retry the request until the server has an index greater than or equal to that returned with the last write Obviously though this has a performance hit because the read is blocked until the follower s local state has caught up Forward Inconsistent Vault also supports proxying inconsistent requests to the current cluster leader for immediate read after write consistency Vault 1 10 0 and later support a replication configuration https www vaultproject io docs faq ssct q is there a new configuration that this feature introduces that detects when forwarding should occur and does it transparently to the client In Vault 1 7 forwarding can be achieved by setting the X Vault Inconsistent header to forward active node By default this behavior is disabled and must be explicitly enabled in the server s replication configuration https www vaultproject io docs configuration replication allow forwarding via header |
external secrets External Secrets Operator integration with Creating a SecretStore Both username and password can be specified either directly in your yaml config or by referencing a kubernetes secret Delinea Secret Server You need a username password and a fully qualified Secret Server tenant URL to authenticate i e | # Delinea Secret Server
External Secrets Operator integration with [Delinea Secret Server](https://docs.delinea.com/online-help/secret-server/start.htm).
### Creating a SecretStore
You need a username, password and a fully qualified Secret Server tenant URL to authenticate
i.e. `https://yourTenantName.secretservercloud.com`.
Both username and password can be specified either directly in your `SecretStore` yaml config, or by referencing a kubernetes secret.
To acquire a username and password, refer to the Secret Server [user management](https://docs.delinea.com/online-help/secret-server/users/creating-users/index.htm) documentation.
Both `username` and `password` can either be specified directly via the `value` field (example below)
>spec.provider.secretserver.username.value: "yourusername"<br />
spec.provider.secretserver.password.value: "yourpassword" <br />
Or you can reference a kubernetes secret (password example below).
```yaml
apiVersion: external-secrets.io/v1beta1
kind: SecretStore
metadata:
name: secret-server-store
spec:
provider:
secretserver:
serverURL: "https://yourtenantname.secretservercloud.com"
username:
value: "yourusername"
password:
secretRef:
name: <NAME_OF_K8S_SECRET>
key: <KEY_IN_K8S_SECRET>
```
### Referencing Secrets
Secrets may be referenced by secret ID or secret name.
>Please note if using the secret name
the name field must not contain spaces or control characters.<br />
If multiple secrets are found, *`only the first found secret will be returned`*.
Please note: `Retrieving a specific version of a secret is not yet supported.`
Note that because all Secret Server secrets are JSON objects, you must specify the `remoteRef.property`
in your ExternalSecret configuration.<br />
You can access nested values or arrays using [gjson syntax](https://github.com/tidwall/gjson/blob/master/SYNTAX.md).
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: secret-server-external-secret
spec:
refreshInterval: 1h
secretStoreRef:
kind: SecretStore
name: secret-server-store
data:
- secretKey: SecretServerValue #<SECRET_VALUE_RETURNED_HERE>
remoteRef:
key: "52622" #<SECRET_ID>
property: "array.0.value" #<GJSON_PROPERTY> * an empty property will return the entire secret
```
### Preparing your secret
You can either retrieve your entire secret or you can use a JSON formatted string
stored in your secret located at Items[0].ItemValue to retrieve a specific value.<br />
See example JSON secret below.
#### Examples
Using the json formatted secret below:
- Lookup a single top level property using secret ID.
>spec.data.remoteRef.key = 52622 (id of the secret)<br />
spec.data.remoteRef.property = "user" (Items.0.ItemValue user attribute)<br />
returns: [email protected]
- Lookup a nested property using secret name.
>spec.data.remoteRef.key = "external-secret-testing" (name of the secret)<br />
spec.data.remoteRef.property = "books.1" (Items.0.ItemValue books.1 attribute)<br />
returns: huckleberryFinn
- Lookup by secret ID (*secret name will work as well*) and return the entire secret.
>spec.data.remoteRef.key = "52622" (id of the secret)<br />
spec.data.remoteRef.property = "" <br />
returns: The entire secret in JSON format as displayed below
```JSON
{
"Name": "external-secret-testing",
"FolderID": 73,
"ID": 52622,
"SiteID": 1,
"SecretTemplateID": 6098,
"SecretPolicyID": -1,
"PasswordTypeWebScriptID": -1,
"LauncherConnectAsSecretID": -1,
"CheckOutIntervalMinutes": -1,
"Active": true,
"CheckedOut": false,
"CheckOutEnabled": false,
"AutoChangeEnabled": false,
"CheckOutChangePasswordEnabled": false,
"DelayIndexing": false,
"EnableInheritPermissions": true,
"EnableInheritSecretPolicy": true,
"ProxyEnabled": false,
"RequiresComment": false,
"SessionRecordingEnabled": false,
"WebLauncherRequiresIncognitoMode": false,
"Items": [
{
"ItemID": 280265,
"FieldID": 439,
"FileAttachmentID": 0,
"FieldName": "Data",
"Slug": "data",
"FieldDescription": "json text field",
"Filename": "",
"ItemValue": "{ \"user\": \"[email protected]\", \"occupation\": \"author\",\"books\":[ \"tomSawyer\",\"huckleberryFinn\",\"Pudd'nhead Wilson\"] }",
"IsFile": false,
"IsNotes": false,
"IsPassword": false
}
]
}
```
### Referencing Secrets in multiple Items secrets
If there is more then one Item in the secret, it supports to retrieve them (all Item.\*.ItemValue) looking up by Item.\*.FieldName or Item.\*.Slug, instead of the above behaviour to use gjson only on the first item Items.0.ItemValue only.
#### Examples
Using the json formatted secret below:
- Lookup a single top level property using secret ID.
>spec.data.remoteRef.key = 4000 (id of the secret)<br />
spec.data.remoteRef.property = "Username" (Items.0.FieldName)<br />
returns: usernamevalue
- Lookup a nested property using secret name.
>spec.data.remoteRef.key = "Secretname" (name of the secret)<br />
spec.data.remoteRef.property = "password" (Items.1.slug)<br />
returns: passwordvalue
- Lookup by secret ID (*secret name will work as well*) and return the entire secret.
>spec.data.remoteRef.key = "4000" (id of the secret)<br />
returns: The entire secret in JSON format as displayed below
```JSON
{
"Name": "Secretname",
"FolderID": 0,
"ID": 4000,
"SiteID": 0,
"SecretTemplateID": 0,
"LauncherConnectAsSecretID": 0,
"CheckOutIntervalMinutes": 0,
"Active": false,
"CheckedOut": false,
"CheckOutEnabled": false,
"AutoChangeEnabled": false,
"CheckOutChangePasswordEnabled": false,
"DelayIndexing": false,
"EnableInheritPermissions": false,
"EnableInheritSecretPolicy": false,
"ProxyEnabled": false,
"RequiresComment": false,
"SessionRecordingEnabled": false,
"WebLauncherRequiresIncognitoMode": false,
"Items": [
{
"ItemID": 0,
"FieldID": 0,
"FileAttachmentID": 0,
"FieldName": "Username",
"Slug": "username",
"FieldDescription": "",
"Filename": "",
"ItemValue": "usernamevalue",
"IsFile": false,
"IsNotes": false,
"IsPassword": false
},
{
"ItemID": 0,
"FieldID": 0,
"FileAttachmentID": 0,
"FieldName": "Password",
"Slug": "password",
"FieldDescription": "",
"Filename": "",
"ItemValue": "passwordvalue",
"IsFile": false,
"IsNotes": false,
"IsPassword": false
}
]
}
``` | external secrets | Delinea Secret Server External Secrets Operator integration with Delinea Secret Server https docs delinea com online help secret server start htm Creating a SecretStore You need a username password and a fully qualified Secret Server tenant URL to authenticate i e https yourTenantName secretservercloud com Both username and password can be specified either directly in your SecretStore yaml config or by referencing a kubernetes secret To acquire a username and password refer to the Secret Server user management https docs delinea com online help secret server users creating users index htm documentation Both username and password can either be specified directly via the value field example below spec provider secretserver username value yourusername br spec provider secretserver password value yourpassword br Or you can reference a kubernetes secret password example below yaml apiVersion external secrets io v1beta1 kind SecretStore metadata name secret server store spec provider secretserver serverURL https yourtenantname secretservercloud com username value yourusername password secretRef name NAME OF K8S SECRET key KEY IN K8S SECRET Referencing Secrets Secrets may be referenced by secret ID or secret name Please note if using the secret name the name field must not contain spaces or control characters br If multiple secrets are found only the first found secret will be returned Please note Retrieving a specific version of a secret is not yet supported Note that because all Secret Server secrets are JSON objects you must specify the remoteRef property in your ExternalSecret configuration br You can access nested values or arrays using gjson syntax https github com tidwall gjson blob master SYNTAX md yaml apiVersion external secrets io v1beta1 kind ExternalSecret metadata name secret server external secret spec refreshInterval 1h secretStoreRef kind SecretStore name secret server store data secretKey SecretServerValue SECRET VALUE RETURNED HERE remoteRef key 52622 SECRET ID property array 0 value GJSON PROPERTY an empty property will return the entire secret Preparing your secret You can either retrieve your entire secret or you can use a JSON formatted string stored in your secret located at Items 0 ItemValue to retrieve a specific value br See example JSON secret below Examples Using the json formatted secret below Lookup a single top level property using secret ID spec data remoteRef key 52622 id of the secret br spec data remoteRef property user Items 0 ItemValue user attribute br returns marktwain hannibal com Lookup a nested property using secret name spec data remoteRef key external secret testing name of the secret br spec data remoteRef property books 1 Items 0 ItemValue books 1 attribute br returns huckleberryFinn Lookup by secret ID secret name will work as well and return the entire secret spec data remoteRef key 52622 id of the secret br spec data remoteRef property br returns The entire secret in JSON format as displayed below JSON Name external secret testing FolderID 73 ID 52622 SiteID 1 SecretTemplateID 6098 SecretPolicyID 1 PasswordTypeWebScriptID 1 LauncherConnectAsSecretID 1 CheckOutIntervalMinutes 1 Active true CheckedOut false CheckOutEnabled false AutoChangeEnabled false CheckOutChangePasswordEnabled false DelayIndexing false EnableInheritPermissions true EnableInheritSecretPolicy true ProxyEnabled false RequiresComment false SessionRecordingEnabled false WebLauncherRequiresIncognitoMode false Items ItemID 280265 FieldID 439 FileAttachmentID 0 FieldName Data Slug data FieldDescription json text field Filename ItemValue user marktwain hannibal com occupation author books tomSawyer huckleberryFinn Pudd nhead Wilson IsFile false IsNotes false IsPassword false Referencing Secrets in multiple Items secrets If there is more then one Item in the secret it supports to retrieve them all Item ItemValue looking up by Item FieldName or Item Slug instead of the above behaviour to use gjson only on the first item Items 0 ItemValue only Examples Using the json formatted secret below Lookup a single top level property using secret ID spec data remoteRef key 4000 id of the secret br spec data remoteRef property Username Items 0 FieldName br returns usernamevalue Lookup a nested property using secret name spec data remoteRef key Secretname name of the secret br spec data remoteRef property password Items 1 slug br returns passwordvalue Lookup by secret ID secret name will work as well and return the entire secret spec data remoteRef key 4000 id of the secret br returns The entire secret in JSON format as displayed below JSON Name Secretname FolderID 0 ID 4000 SiteID 0 SecretTemplateID 0 LauncherConnectAsSecretID 0 CheckOutIntervalMinutes 0 Active false CheckedOut false CheckOutEnabled false AutoChangeEnabled false CheckOutChangePasswordEnabled false DelayIndexing false EnableInheritPermissions false EnableInheritSecretPolicy false ProxyEnabled false RequiresComment false SessionRecordingEnabled false WebLauncherRequiresIncognitoMode false Items ItemID 0 FieldID 0 FileAttachmentID 0 FieldName Username Slug username FieldDescription Filename ItemValue usernamevalue IsFile false IsNotes false IsPassword false ItemID 0 FieldID 0 FileAttachmentID 0 FieldName Password Slug password FieldDescription Filename ItemValue passwordvalue IsFile false IsNotes false IsPassword false |
external secrets SecretStore resource specifies how to access Akeyless This resource is namespaced External Secrets Operator integrates with the Akeyless Secrets Management Platform NOTE Make sure the Akeyless provider is listed in the Kind SecretStore Create Secret Store If you use a customer fragment define the value of akeylessGWApiURL as the URL of your Akeyless Gateway in the following format https your akeyless gw 8080 v2 | ## Akeyless Secrets Management Platform
External Secrets Operator integrates with the [Akeyless Secrets Management Platform](https://www.akeyless.io/).
### Create Secret Store
SecretStore resource specifies how to access Akeyless. This resource is namespaced.
**NOTE:** Make sure the Akeyless provider is listed in the Kind=SecretStore.
If you use a customer fragment, define the value of akeylessGWApiURL as the URL of your Akeyless Gateway in the following format: https://your.akeyless.gw:8080/v2.
Akeyelss provide several Authentication Methods:
### Authentication with Kubernetes
Options for obtaining Kubernetes credentials include:
1. Using a service account jwt referenced in serviceAccountRef
2. Using the jwt from a Kind=Secret referenced by the secretRef
3. Using transient credentials from the mounted service account token within the external-secrets operator
#### Create the Akeyless Secret Store Provider with Kubernetes Auth-Method
```yaml
{% include 'akeyless-secret-store-k8s-auth.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, Be sure to provide `namespace` for `serviceAccountRef` and `secretRef` according to the namespaces where the secrets reside.
### Authentication With Cloud-Identity or Api-Access-Key
Akeyless providers require an access-id, access-type and access-Type-param
To set your SecretStore with an authentication method from Akeyless.
The supported auth-methods and their parameters are:
| accessType | accessTypeParam |
| ------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| `aws_iam` | - |
| `gcp` | The gcp audience |
| `azure_ad` | azure object id (optional) |
| `api_key` | The access key. |
| `k8s` | The k8s configuration name |
For more information see [Akeyless Authentication Methods](https://docs.akeyless.io/docs/access-and-authentication-methods)
#### Creating an Akeyless Credentials Secret
Create a secret containing your credentials using the following example as a guide:
```yaml
apiVersion: v1
kind: Secret
metadata:
name: akeyless-secret-creds
type: Opaque
stringData:
accessId: "p-XXXX"
accessType: # gcp/azure_ad/api_key/k8s/aws_iam
accessTypeParam: # optional: can be one of the following: gcp-audience/azure-obj-id/access-key/k8s-conf-name
```
#### Create the Akeyless Secret Store Provider with the Credentials Secret
```yaml
{% include 'akeyless-secret-store.yaml' %}
```
**NOTE:** In case of a `ClusterSecretStore`, be sure to provide `namespace` for `accessID`, `accessType` and `accessTypeParam` according to the namespaces where the secrets reside.
#### Create the Akeyless Secret Store With CAs for TLS handshake
```yaml
....
spec:
provider:
akeyless:
akeylessGWApiURL: "https://your.akeyless.gw:8080/v2"
# Optional caBundle - PEM/base64 encoded CA certificate
caBundle: "<base64 encoded cabundle>"
# Optional caProvider:
# Instead of caBundle you can also specify a caProvider
# this will retrieve the cert from a Secret or ConfigMap
caProvider:
type: "Secret/ConfigMap" # Can be Secret or ConfigMap
name: "<name of secret or configmap>"
key: "<key inside secret>"
# namespace is mandatory for ClusterSecretStore and not relevant for SecretStore
namespace: "my-cert-secret-namespace"
....
```
### Creating an external secret
To get a secret from Akeyless and create it as a secret on the Kubernetes cluster, a `Kind=ExternalSecret` is needed.
```yaml
{% include 'akeyless-external-secret.yaml' %}
```
#### Using DataFrom
DataFrom can be used to get a secret as a JSON string and attempt to parse it.
```yaml
{% include 'akeyless-external-secret-json.yaml' %}
```
### Getting the Kubernetes Secret
The operator will fetch the secret and inject it as a `Kind=Secret`.
```bash
kubectl get secret database-credentials -o jsonpath='{.data.db-password}' | base64 -d
```
```bash
kubectl get secret database-credentials-json -o jsonpath='{.data}'
```
### Pushing a secret
To push a secret from Kubernetes cluster and create it as a secret to Akeyless, a `Kind=PushSecret` resource is needed.
{% include 'akeyless-push-secret.yaml' %}
Then when you create a matching secret as follows:
```bash
kubectl create secret generic --from-literal=cache-pass=mypassword k8s-created-secret
```
Then it will create a secret in akeyless `eso-created/my-secret` with value `{"cache-pass":"mypassword"}` | external secrets | Akeyless Secrets Management Platform External Secrets Operator integrates with the Akeyless Secrets Management Platform https www akeyless io Create Secret Store SecretStore resource specifies how to access Akeyless This resource is namespaced NOTE Make sure the Akeyless provider is listed in the Kind SecretStore If you use a customer fragment define the value of akeylessGWApiURL as the URL of your Akeyless Gateway in the following format https your akeyless gw 8080 v2 Akeyelss provide several Authentication Methods Authentication with Kubernetes Options for obtaining Kubernetes credentials include 1 Using a service account jwt referenced in serviceAccountRef 2 Using the jwt from a Kind Secret referenced by the secretRef 3 Using transient credentials from the mounted service account token within the external secrets operator Create the Akeyless Secret Store Provider with Kubernetes Auth Method yaml include akeyless secret store k8s auth yaml NOTE In case of a ClusterSecretStore Be sure to provide namespace for serviceAccountRef and secretRef according to the namespaces where the secrets reside Authentication With Cloud Identity or Api Access Key Akeyless providers require an access id access type and access Type param To set your SecretStore with an authentication method from Akeyless The supported auth methods and their parameters are accessType accessTypeParam aws iam gcp The gcp audience azure ad azure object id optional api key The access key k8s The k8s configuration name For more information see Akeyless Authentication Methods https docs akeyless io docs access and authentication methods Creating an Akeyless Credentials Secret Create a secret containing your credentials using the following example as a guide yaml apiVersion v1 kind Secret metadata name akeyless secret creds type Opaque stringData accessId p XXXX accessType gcp azure ad api key k8s aws iam accessTypeParam optional can be one of the following gcp audience azure obj id access key k8s conf name Create the Akeyless Secret Store Provider with the Credentials Secret yaml include akeyless secret store yaml NOTE In case of a ClusterSecretStore be sure to provide namespace for accessID accessType and accessTypeParam according to the namespaces where the secrets reside Create the Akeyless Secret Store With CAs for TLS handshake yaml spec provider akeyless akeylessGWApiURL https your akeyless gw 8080 v2 Optional caBundle PEM base64 encoded CA certificate caBundle base64 encoded cabundle Optional caProvider Instead of caBundle you can also specify a caProvider this will retrieve the cert from a Secret or ConfigMap caProvider type Secret ConfigMap Can be Secret or ConfigMap name name of secret or configmap key key inside secret namespace is mandatory for ClusterSecretStore and not relevant for SecretStore namespace my cert secret namespace Creating an external secret To get a secret from Akeyless and create it as a secret on the Kubernetes cluster a Kind ExternalSecret is needed yaml include akeyless external secret yaml Using DataFrom DataFrom can be used to get a secret as a JSON string and attempt to parse it yaml include akeyless external secret json yaml Getting the Kubernetes Secret The operator will fetch the secret and inject it as a Kind Secret bash kubectl get secret database credentials o jsonpath data db password base64 d bash kubectl get secret database credentials json o jsonpath data Pushing a secret To push a secret from Kubernetes cluster and create it as a secret to Akeyless a Kind PushSecret resource is needed include akeyless push secret yaml Then when you create a matching secret as follows bash kubectl create secret generic from literal cache pass mypassword k8s created secret Then it will create a secret in akeyless eso created my secret with value cache pass mypassword |
external secrets A running Conjur Server Before installing the Conjur provider you need Conjur Provider Prerequisites This section describes how to set up the Conjur provider for External Secrets Operator ESO For a working example see the or | ## Conjur Provider
This section describes how to set up the Conjur provider for External Secrets Operator (ESO). For a working example, see the [Accelerator-K8s-External-Secrets repo](https://github.com/conjurdemos/Accelerator-K8s-External-Secrets).
### Prerequisites
Before installing the Conjur provider, you need:
* A running Conjur Server ([OSS](https://github.com/cyberark/conjur),
[Enterprise](https://www.cyberark.com/products/secrets-manager-enterprise/), or
[Cloud](https://www.cyberark.com/products/multi-cloud-secrets/)), with:
* An accessible Conjur endpoint (for example: `https://myapi.example.com`).
* Your configured Conjur authentication info (such as `hostid`, `apikey`, or JWT service ID). For more information on configuring Conjur, see [Policy statement reference](https://docs.cyberark.com/conjur-open-source/Latest/en/Content/Operations/Policy/policy-statement-ref.htm).
* Support for your authentication method (`apikey` is supported by default, `jwt` requires additional configuration).
* **Optional**: Conjur server certificate (see [below](#conjur-server-certificate)).
* A Kubernetes cluster with ESO installed.
### Conjur server certificate
If you set up your Conjur server with a self-signed certificate, we recommend that you populate the `caBundle` field with the Conjur self-signed certificate in the secret-store definition. The certificate CA must be referenced in the secret-store definition using either `caBundle` or `caProvider`:
```yaml
{% include 'conjur-ca-bundle.yaml' %}
```
### External secret store
The Conjur provider is configured as an external secret store in ESO. The Conjur provider supports these two methods to authenticate to Conjur:
* [`apikey`](#option-1-external-secret-store-with-apikey-authentication): uses a Conjur `hostid` and `apikey` to authenticate with Conjur
* [`jwt`](#option-2-external-secret-store-with-jwt-authentication): uses a JWT to authenticate with Conjur
#### Option 1: External secret store with apiKey authentication
This method uses a Conjur `hostid` and `apikey` to authenticate with Conjur. It is the simplest method to set up and use because your Conjur instance requires no additional configuration.
##### Step 1: Define an external secret store
!!! Tip
Save as the file as: `conjur-secret-store.yaml`
```yaml
{% include 'conjur-secret-store-apikey.yaml' %}
```
##### Step 2: Create Kubernetes secrets for Conjur credentials
To connect to the Conjur server, the **ESO Conjur provider** needs to retrieve the `apikey` credentials from K8s secrets.
!!! Note
For more information about how to create K8s secrets, see [Creating a secret](https://kubernetes.io/docs/concepts/configuration/secret/#creating-a-secret).
Here is an example of how to create K8s secrets using the `kubectl` command:
```shell
# This is all one line
kubectl -n external-secrets create secret generic conjur-creds --from-literal=hostid=MYCONJURHOSTID --from-literal=apikey=MYAPIKEY
# Example:
# kubectl -n external-secrets create secret generic conjur-creds --from-literal=hostid=host/data/app1/host001 --from-literal=apikey=321blahblah
```
!!! Note
`conjur-creds` is the `name` defined in the `userRef` and `apikeyRef` fields of the `conjur-secret-store.yml` file.
##### Step 3: Create the external secrets store
!!! Important
Unless you are using a [ClusterSecretStore](../api/clustersecretstore.md), credentials must reside in the same namespace as the SecretStore.
```shell
# WARNING: creates the store in the "external-secrets" namespace, update the value as needed
#
kubectl apply -n external-secrets -f conjur-secret-store.yaml
# WARNING: running the delete command will delete the secret store configuration
#
# If there is a need to delete the external secretstore
# kubectl delete secretstore -n external-secrets conjur
```
#### Option 2: External secret store with JWT authentication
This method uses JWT tokens to authenticate with Conjur. You can use the following methods to retrieve a JWT token for authentication:
* JWT token from a referenced Kubernetes service account
* JWT token stored in a Kubernetes secret
##### Step 1: Define an external secret store
When you use JWT authentication, the following must be specified in the `SecretStore`:
* `account` - The name of the Conjur account
* `serviceId` - The ID of the JWT Authenticator `WebService` configured in Conjur that is used to authenticate the JWT token
You can retrieve the JWT token from either a referenced service account or a Kubernetes secret.
For example, to retrieve a JWT token from a referenced Kubernetes service account, the following secret store definition can be used:
```yaml
{% include 'conjur-secret-store-jwt-service-account-ref.yaml' %}
```
!!! Important
This method is only supported in Kubernetes 1.22 and above as it uses the [TokenRequest API](https://kubernetes.io/docs/reference/kubernetes-api/authentication-resources/token-request-v1/) to get the JWT token from the referenced service account. Audiences can be defined in the [Conjur JWT authenticator](https://docs.conjur.org/Latest/en/Content/Integrations/k8s-ocp/k8s-jwt-authn.htm).
Alternatively, here is an example where a secret containing a valid JWT token is referenced:
```yaml
{% include 'conjur-secret-store-jwt-secret-ref.yaml' %}
```
The JWT token must identify your Conjur host, be compatible with your configured Conjur JWT authenticator, and meet all the [Conjur JWT guidelines](https://docs.conjur.org/Latest/en/Content/Operations/Services/cjr-authn-jwt-guidelines.htm#Best).
You can use an external JWT issuer or the Kubernetes API server to create the token. For example, a Kubernetes service account token can be created with this command:
```shell
kubectl create token my-service-account --audience='https://conjur.company.com' --duration=3600s
```
Save the secret store file as `conjur-secret-store.yaml`.
##### Step 2: Create the external secrets store
```shell
# WARNING: creates the store in the "external-secrets" namespace, update the value as needed
#
kubectl apply -n external-secrets -f conjur-secret-store.yaml
# WARNING: running the delete command will delete the secret store configuration
#
# If there is a need to delete the external secretstore
# kubectl delete secretstore -n external-secrets conjur
```
### Define an external secret
After you have configured the Conjur provider secret store, you can fetch secrets from Conjur.
Here is an example of how to fetch a single secret from Conjur:
```yaml
{% include 'conjur-external-secret.yaml' %}
```
Save the external secret file as `conjur-external-secret.yaml`.
#### Find by Name and Find by Tag
The Conjur provider also supports the Find by Name and Find by Tag ESO features. This means that
you can use a regular expression or tags to dynamically fetch multiple secrets from Conjur.
```yaml
{% include 'conjur-external-secret-find.yaml' %}
```
If you use these features, we strongly recommend that you limit the permissions of the Conjur host
to only the secrets that it needs to access. This is more secure and it reduces the load on
both the Conjur server and ESO.
### Create the external secret
```shell
# WARNING: creates the external-secret in the "external-secrets" namespace, update the value as needed
#
kubectl apply -n external-secrets -f conjur-external-secret.yaml
# WARNING: running the delete command will delete the external-secrets configuration
#
# If there is a need to delete the external secret
# kubectl delete externalsecret -n external-secrets conjur
```
### Get the K8s secret
* Log in to your Conjur server and verify that your secret exists
* Review the value of your Kubernetes secret to verify that it contains the same value as the Conjur server
```shell
# WARNING: this command will reveal the stored secret in plain text
#
# Assuming the secret name is "secret00", this will show the value
kubectl get secret -n external-secrets conjur -o jsonpath="{.data.secret00}" | base64 --decode && echo
```
### See also
* [Accelerator-K8s-External-Secrets repo](https://github.com/conjurdemos/Accelerator-K8s-External-Secrets)
* [Configure Conjur JWT authentication](https://docs.cyberark.com/conjur-open-source/Latest/en/Content/Operations/Services/cjr-authn-jwt-guidelines.htm)
### License
Copyright (c) 2023-2024 CyberArk Software Ltd. All rights reserved.
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
<http://www.apache.org/licenses/LICENSE-2.0>
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License. | external secrets | Conjur Provider This section describes how to set up the Conjur provider for External Secrets Operator ESO For a working example see the Accelerator K8s External Secrets repo https github com conjurdemos Accelerator K8s External Secrets Prerequisites Before installing the Conjur provider you need A running Conjur Server OSS https github com cyberark conjur Enterprise https www cyberark com products secrets manager enterprise or Cloud https www cyberark com products multi cloud secrets with An accessible Conjur endpoint for example https myapi example com Your configured Conjur authentication info such as hostid apikey or JWT service ID For more information on configuring Conjur see Policy statement reference https docs cyberark com conjur open source Latest en Content Operations Policy policy statement ref htm Support for your authentication method apikey is supported by default jwt requires additional configuration Optional Conjur server certificate see below conjur server certificate A Kubernetes cluster with ESO installed Conjur server certificate If you set up your Conjur server with a self signed certificate we recommend that you populate the caBundle field with the Conjur self signed certificate in the secret store definition The certificate CA must be referenced in the secret store definition using either caBundle or caProvider yaml include conjur ca bundle yaml External secret store The Conjur provider is configured as an external secret store in ESO The Conjur provider supports these two methods to authenticate to Conjur apikey option 1 external secret store with apikey authentication uses a Conjur hostid and apikey to authenticate with Conjur jwt option 2 external secret store with jwt authentication uses a JWT to authenticate with Conjur Option 1 External secret store with apiKey authentication This method uses a Conjur hostid and apikey to authenticate with Conjur It is the simplest method to set up and use because your Conjur instance requires no additional configuration Step 1 Define an external secret store Tip Save as the file as conjur secret store yaml yaml include conjur secret store apikey yaml Step 2 Create Kubernetes secrets for Conjur credentials To connect to the Conjur server the ESO Conjur provider needs to retrieve the apikey credentials from K8s secrets Note For more information about how to create K8s secrets see Creating a secret https kubernetes io docs concepts configuration secret creating a secret Here is an example of how to create K8s secrets using the kubectl command shell This is all one line kubectl n external secrets create secret generic conjur creds from literal hostid MYCONJURHOSTID from literal apikey MYAPIKEY Example kubectl n external secrets create secret generic conjur creds from literal hostid host data app1 host001 from literal apikey 321blahblah Note conjur creds is the name defined in the userRef and apikeyRef fields of the conjur secret store yml file Step 3 Create the external secrets store Important Unless you are using a ClusterSecretStore api clustersecretstore md credentials must reside in the same namespace as the SecretStore shell WARNING creates the store in the external secrets namespace update the value as needed kubectl apply n external secrets f conjur secret store yaml WARNING running the delete command will delete the secret store configuration If there is a need to delete the external secretstore kubectl delete secretstore n external secrets conjur Option 2 External secret store with JWT authentication This method uses JWT tokens to authenticate with Conjur You can use the following methods to retrieve a JWT token for authentication JWT token from a referenced Kubernetes service account JWT token stored in a Kubernetes secret Step 1 Define an external secret store When you use JWT authentication the following must be specified in the SecretStore account The name of the Conjur account serviceId The ID of the JWT Authenticator WebService configured in Conjur that is used to authenticate the JWT token You can retrieve the JWT token from either a referenced service account or a Kubernetes secret For example to retrieve a JWT token from a referenced Kubernetes service account the following secret store definition can be used yaml include conjur secret store jwt service account ref yaml Important This method is only supported in Kubernetes 1 22 and above as it uses the TokenRequest API https kubernetes io docs reference kubernetes api authentication resources token request v1 to get the JWT token from the referenced service account Audiences can be defined in the Conjur JWT authenticator https docs conjur org Latest en Content Integrations k8s ocp k8s jwt authn htm Alternatively here is an example where a secret containing a valid JWT token is referenced yaml include conjur secret store jwt secret ref yaml The JWT token must identify your Conjur host be compatible with your configured Conjur JWT authenticator and meet all the Conjur JWT guidelines https docs conjur org Latest en Content Operations Services cjr authn jwt guidelines htm Best You can use an external JWT issuer or the Kubernetes API server to create the token For example a Kubernetes service account token can be created with this command shell kubectl create token my service account audience https conjur company com duration 3600s Save the secret store file as conjur secret store yaml Step 2 Create the external secrets store shell WARNING creates the store in the external secrets namespace update the value as needed kubectl apply n external secrets f conjur secret store yaml WARNING running the delete command will delete the secret store configuration If there is a need to delete the external secretstore kubectl delete secretstore n external secrets conjur Define an external secret After you have configured the Conjur provider secret store you can fetch secrets from Conjur Here is an example of how to fetch a single secret from Conjur yaml include conjur external secret yaml Save the external secret file as conjur external secret yaml Find by Name and Find by Tag The Conjur provider also supports the Find by Name and Find by Tag ESO features This means that you can use a regular expression or tags to dynamically fetch multiple secrets from Conjur yaml include conjur external secret find yaml If you use these features we strongly recommend that you limit the permissions of the Conjur host to only the secrets that it needs to access This is more secure and it reduces the load on both the Conjur server and ESO Create the external secret shell WARNING creates the external secret in the external secrets namespace update the value as needed kubectl apply n external secrets f conjur external secret yaml WARNING running the delete command will delete the external secrets configuration If there is a need to delete the external secret kubectl delete externalsecret n external secrets conjur Get the K8s secret Log in to your Conjur server and verify that your secret exists Review the value of your Kubernetes secret to verify that it contains the same value as the Conjur server shell WARNING this command will reveal the stored secret in plain text Assuming the secret name is secret00 this will show the value kubectl get secret n external secrets conjur o jsonpath data secret00 base64 decode echo See also Accelerator K8s External Secrets repo https github com conjurdemos Accelerator K8s External Secrets Configure Conjur JWT authentication https docs cyberark com conjur open source Latest en Content Operations Services cjr authn jwt guidelines htm License Copyright c 2023 2024 CyberArk Software Ltd All rights reserved Licensed under the Apache License Version 2 0 the License you may not use this file except in compliance with the License You may obtain a copy of the License at http www apache org licenses LICENSE 2 0 Unless required by applicable law or agreed to in writing software distributed under the License is distributed on an AS IS BASIS WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND either express or implied See the License for the specific language governing permissions and limitations under the License |
external secrets Summary hide toc The External Secrets Operator is a Kubernetes Operator that seamlessly incorporates external secret management systems into Kubernetes This Operator retrieves data from the external API and generates Kubernetes Secret resources using the corresponding secret values This process occurs continuously in the background through regular polling of the external API Consequently whenever a secret undergoes changes in the external API the corresponding Kubernetes Secret will also be updated accordingly Background | ---
hide:
- toc
---
## Background
The External Secrets Operator is a Kubernetes Operator that seamlessly incorporates external secret management systems into Kubernetes. This Operator retrieves data from the external API and generates Kubernetes Secret resources using the corresponding secret values. This process occurs continuously in the background through regular polling of the external API. Consequently, whenever a secret undergoes changes in the external API, the corresponding Kubernetes Secret will also be updated accordingly.
### Summary
| Purpose | Description |
| ------------------- | ---------------------------- |
| Intended Usage | Sync Secrets into Kubernetes |
| Data Classifiation | Critical |
| Highest Risk Impact | Organisation takeover |
### Components
ESO comprises three main components: `webhook`, `cert controller` and a `core controller`. For more detailed information, please refer to the documentation on [components](../api/components.md).
## Overview
This section provides an overview of the security aspects of the External Secrets Operator (ESO) and includes information on assets, threats, and controls involved in its operation.
The following diagram illustrates the security perspective of how ESO functions, highlighting the assets (items to protect), threats (potential risks), and controls (measures to mitigate threats).
![Overview](../pictures/eso-threat-model-overview.drawio.png)
### Scope
For the purpose of this threat model, we assume an ESO installation using helm and default settings on a public cloud provider. It is important to note that the [Kubernetes SIG Security](https://github.com/kubernetes/community/tree/master/sig-security) team has defined an [Admission Control Threat Model](https://github.com/kubernetes/sig-security/blob/main/sig-security-docs/papers/admission-control/kubernetes-admission-control-threat-model.md), which is recommended reading for a better understanding of the security aspects that partially apply to External Secrets Operator.
ESO utilizes the `ValidatingWebhookConfiguration` mechanism to validate `(Cluster)SecretStore` and `(Cluster)ExternalSecret` resources. However, it is essential to understand that this validation process does not serve as a security control mechanism. Instead, ESO performs validation by enforcing additional rules that go beyond the [CustomResourceDefinition OpenAPI v3 Validation schema](https://kubernetes.io/docs/tasks/extend-kubernetes/custom-resources/custom-resource-definitions/#validation).
### Assets
#### A01: Cluster-Level access to secrets
The controller possesses privileged access to the `kube-apiserver` and is authorized to read and write secret resources across all namespaces within a cluster.
#### A02: CRD and Webhook Write access
The cert-controller component has read/write access to `ValidatingWebhookConfigurations` and `CustomResourceDefinitions` resources. This access is necessary to inject/modify the caBundle property.
#### A03: secret provider access
The `core-controller` component accesses a secret provider using user-supplied credentials. These credentials can be derived from environment variables, mounted service account tokens, files within the controller container, or fetched from the Kubernetes API (e.g., `Kind=Secret`). The scope of these credentials may vary, potentially providing full access to a cloud provider.
#### A04: capability to modify resources
The webhook component validates and converts ExternalSecret and SecretStore resources. The conversion webhook is essential for migrating resources from the old version `v1alpha1` to the new version `v1beta1`. The webhook component possesses the ability to modify resources during runtime.
### Threats
#### T01: Tampering with resources through MITM
An adversary could launch a Man-in-the-Middle (MITM) attack to hijack the webhook pod, enabling them to manipulate the data of the conversion webhook. This could involve injecting malicious resources or causing a Denial-of-Service (DoS) attack. To mitigate this threat, a mutual authentication mechanism should be enforced for the connection between the Kubernetes API server and the webhook service to ensure that only authenticated endpoints can communicate.
#### T02: Webhook DOS
Currently, ESO generates an X.509 certificate for webhook registration without authenticating the kube-apiserver. Consequently, if an attacker gains network access to the webhook Pod, they can overload the webhook server and initiate a DoS attack. As a result, modifications to ESO resources may fail, and the ESO core controller may be impacted due to the unavailability of the conversion webhook.
#### T03: Unauthorized access to cluster secrets
An attacker can gain unauthorized access to secrets by utilizing the service account token of the ESO core controller Pod or exploiting software vulnerabilities. This unauthorized access allows the attacker to read secrets within the cluster, potentially leading to a cluster takeover.
#### T04: unauthorized access to secret provider credentials
An attacker can gain unauthorized access to credentials that provide access to external APIs storing secrets. If the credentials have overly broad permissions, this could result in an organization takeover.
#### T05: data exfiltration through malicious resources
An attacker can exfiltrate data from the cluster by utilizing maliciously crafted resources. Multiple attack vectors can be employed, e.g.:
1. copying data from a namespace to an unauthorized namespace
2. exfiltrating data to an unauthorized secret provider
3. exfiltrating data through an authorized secret provider to a malicious provider account
Successful data exfiltration can lead to intellectual property loss, information misuse, loss of customer trust, and damage to the brand or reputation.
#### T06: supply chain attacks
An attack can infiltrate the ESO container through various attack vectors. The following are some potential entry points, although this is not an exhaustive list. For a comprehensive analysis, refer to [SLSA Threats and mitigations](https://slsa.dev/spec/v0.1/threats) or [GCP software supply chain threats](https://cloud.google.com/software-supply-chain-security/docs/attack-vectors).
1. Source Threats: Unauthorized changes or inclusion of vulnerable code in ESO through code submissions.
2. Build Threats: Creation and distribution of malicious builds of ESO, such as in container registries, Artifact Hub, or Operator Hub.
3. Dependency Threats: Introduction of vulnerable code into ESO dependencies.
4. Deployment and Runtime Threats: Injection of malicious code through compromised deployment processes.
#### T07: malicious workloads in eso namespace
An attacker can deploy malicious workloads within the external-secrets namespace, taking advantage of the ESO service account with potentially cluster-wide privileges.
### Controls
#### C01: Network Security Policy
Implement a NetworkPolicy to restrict traffic in both inbound and outbound directions on all networks. Employ a "deny all" / "permit by exception" approach for inbound and outbound network traffic. The specific network policies for the core-controller depend on the chosen provider. The webhook and cert-controller have well-defined sets of endpoints they communicate with. Refer to the [Security Best Practices](./security-best-practices.md) documentation for inbound and outbound network requirements.
Please note that ESO does not provide pre-packaged network policies, and it is the user's responsibility to implement the necessary security controls.
#### C02: Least Privilege RBAC
Adhere to the principle of least privilege by configuring Role-Based Access Control (RBAC) permissions not only for the ESO workload but also for all users interacting with it. Ensure that RBAC permissions on provider side are appropriate according to your setup, by for example limiting which sensitive information a given credential can have access to. Ensure that kubernetes RBAC are set up to grant access to ESO resources only where necessary. For example, allowing write access to `ClusterSecretStore`/`ExternalSecret` may be sufficient for a threat to become a reality.
#### C03: Policy Enforcement
Implement a Policy Engine such as Kyverno or OPA to enforce restrictions on changes to ESO resources. The specific policies to be enforced depend on the environment. Here are a few suggestions:
1. (Cluster)SecretStore: Restrict the allowed secret providers, disallowing unused or undesired providers (e.g. Webhook).
2. (Cluster)SecretStore: Restrict the permitted authentication mechanisms (e.g. prevent usage of `secretRef`).
3. (Cluster)SecretStore: Enforce limitations on modifications to provider-specific fields relevant for security, such as `caBundle`, `caProvider`, `region`, `role`, `url`, `environmentType`, `identityId`, and `others`.
4. ClusterSecretStore: Control the usage of `namespaceSelector`, such as forbidding or mandating the usage of the `kube-system` namespace.
5. ClusterExternalSecret: Restrict the usage of `namespaceSelector`.
Please note that ESO does not provide pre-packaged policies, and it is the user's responsibility to implement the necessary security controls.
#### C04: Provider Access Policy
Configure fine-grained access control on the HTTP endpoint of the secret provider to prevent data exfiltration across accounts or organizations. Consult the documentation of your specific provider (e.g.: [AWS Secrets Manager VPC Endpoint Policies](https://docs.aws.amazon.com/secretsmanager/latest/userguide/vpc-endpoint-overview.html), [GCP Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect), or [Azure Private Link](https://learn.microsoft.com/en-us/azure/key-vault/general/private-link-service)) for guidance on setting up access policies.
#### C05: Entirely disable CRDs
You should disable unused CRDs to narrow down your attack surface. Not all users require the use of `PushSecret`, `ClusterSecretStore` or `ClusterExternalSecret` resources. | external secrets | hide toc Background The External Secrets Operator is a Kubernetes Operator that seamlessly incorporates external secret management systems into Kubernetes This Operator retrieves data from the external API and generates Kubernetes Secret resources using the corresponding secret values This process occurs continuously in the background through regular polling of the external API Consequently whenever a secret undergoes changes in the external API the corresponding Kubernetes Secret will also be updated accordingly Summary Purpose Description Intended Usage Sync Secrets into Kubernetes Data Classifiation Critical Highest Risk Impact Organisation takeover Components ESO comprises three main components webhook cert controller and a core controller For more detailed information please refer to the documentation on components api components md Overview This section provides an overview of the security aspects of the External Secrets Operator ESO and includes information on assets threats and controls involved in its operation The following diagram illustrates the security perspective of how ESO functions highlighting the assets items to protect threats potential risks and controls measures to mitigate threats Overview pictures eso threat model overview drawio png Scope For the purpose of this threat model we assume an ESO installation using helm and default settings on a public cloud provider It is important to note that the Kubernetes SIG Security https github com kubernetes community tree master sig security team has defined an Admission Control Threat Model https github com kubernetes sig security blob main sig security docs papers admission control kubernetes admission control threat model md which is recommended reading for a better understanding of the security aspects that partially apply to External Secrets Operator ESO utilizes the ValidatingWebhookConfiguration mechanism to validate Cluster SecretStore and Cluster ExternalSecret resources However it is essential to understand that this validation process does not serve as a security control mechanism Instead ESO performs validation by enforcing additional rules that go beyond the CustomResourceDefinition OpenAPI v3 Validation schema https kubernetes io docs tasks extend kubernetes custom resources custom resource definitions validation Assets A01 Cluster Level access to secrets The controller possesses privileged access to the kube apiserver and is authorized to read and write secret resources across all namespaces within a cluster A02 CRD and Webhook Write access The cert controller component has read write access to ValidatingWebhookConfigurations and CustomResourceDefinitions resources This access is necessary to inject modify the caBundle property A03 secret provider access The core controller component accesses a secret provider using user supplied credentials These credentials can be derived from environment variables mounted service account tokens files within the controller container or fetched from the Kubernetes API e g Kind Secret The scope of these credentials may vary potentially providing full access to a cloud provider A04 capability to modify resources The webhook component validates and converts ExternalSecret and SecretStore resources The conversion webhook is essential for migrating resources from the old version v1alpha1 to the new version v1beta1 The webhook component possesses the ability to modify resources during runtime Threats T01 Tampering with resources through MITM An adversary could launch a Man in the Middle MITM attack to hijack the webhook pod enabling them to manipulate the data of the conversion webhook This could involve injecting malicious resources or causing a Denial of Service DoS attack To mitigate this threat a mutual authentication mechanism should be enforced for the connection between the Kubernetes API server and the webhook service to ensure that only authenticated endpoints can communicate T02 Webhook DOS Currently ESO generates an X 509 certificate for webhook registration without authenticating the kube apiserver Consequently if an attacker gains network access to the webhook Pod they can overload the webhook server and initiate a DoS attack As a result modifications to ESO resources may fail and the ESO core controller may be impacted due to the unavailability of the conversion webhook T03 Unauthorized access to cluster secrets An attacker can gain unauthorized access to secrets by utilizing the service account token of the ESO core controller Pod or exploiting software vulnerabilities This unauthorized access allows the attacker to read secrets within the cluster potentially leading to a cluster takeover T04 unauthorized access to secret provider credentials An attacker can gain unauthorized access to credentials that provide access to external APIs storing secrets If the credentials have overly broad permissions this could result in an organization takeover T05 data exfiltration through malicious resources An attacker can exfiltrate data from the cluster by utilizing maliciously crafted resources Multiple attack vectors can be employed e g 1 copying data from a namespace to an unauthorized namespace 2 exfiltrating data to an unauthorized secret provider 3 exfiltrating data through an authorized secret provider to a malicious provider account Successful data exfiltration can lead to intellectual property loss information misuse loss of customer trust and damage to the brand or reputation T06 supply chain attacks An attack can infiltrate the ESO container through various attack vectors The following are some potential entry points although this is not an exhaustive list For a comprehensive analysis refer to SLSA Threats and mitigations https slsa dev spec v0 1 threats or GCP software supply chain threats https cloud google com software supply chain security docs attack vectors 1 Source Threats Unauthorized changes or inclusion of vulnerable code in ESO through code submissions 2 Build Threats Creation and distribution of malicious builds of ESO such as in container registries Artifact Hub or Operator Hub 3 Dependency Threats Introduction of vulnerable code into ESO dependencies 4 Deployment and Runtime Threats Injection of malicious code through compromised deployment processes T07 malicious workloads in eso namespace An attacker can deploy malicious workloads within the external secrets namespace taking advantage of the ESO service account with potentially cluster wide privileges Controls C01 Network Security Policy Implement a NetworkPolicy to restrict traffic in both inbound and outbound directions on all networks Employ a deny all permit by exception approach for inbound and outbound network traffic The specific network policies for the core controller depend on the chosen provider The webhook and cert controller have well defined sets of endpoints they communicate with Refer to the Security Best Practices security best practices md documentation for inbound and outbound network requirements Please note that ESO does not provide pre packaged network policies and it is the user s responsibility to implement the necessary security controls C02 Least Privilege RBAC Adhere to the principle of least privilege by configuring Role Based Access Control RBAC permissions not only for the ESO workload but also for all users interacting with it Ensure that RBAC permissions on provider side are appropriate according to your setup by for example limiting which sensitive information a given credential can have access to Ensure that kubernetes RBAC are set up to grant access to ESO resources only where necessary For example allowing write access to ClusterSecretStore ExternalSecret may be sufficient for a threat to become a reality C03 Policy Enforcement Implement a Policy Engine such as Kyverno or OPA to enforce restrictions on changes to ESO resources The specific policies to be enforced depend on the environment Here are a few suggestions 1 Cluster SecretStore Restrict the allowed secret providers disallowing unused or undesired providers e g Webhook 2 Cluster SecretStore Restrict the permitted authentication mechanisms e g prevent usage of secretRef 3 Cluster SecretStore Enforce limitations on modifications to provider specific fields relevant for security such as caBundle caProvider region role url environmentType identityId and others 4 ClusterSecretStore Control the usage of namespaceSelector such as forbidding or mandating the usage of the kube system namespace 5 ClusterExternalSecret Restrict the usage of namespaceSelector Please note that ESO does not provide pre packaged policies and it is the user s responsibility to implement the necessary security controls C04 Provider Access Policy Configure fine grained access control on the HTTP endpoint of the secret provider to prevent data exfiltration across accounts or organizations Consult the documentation of your specific provider e g AWS Secrets Manager VPC Endpoint Policies https docs aws amazon com secretsmanager latest userguide vpc endpoint overview html GCP Private Service Connect https cloud google com vpc docs private service connect or Azure Private Link https learn microsoft com en us azure key vault general private link service for guidance on setting up access policies C05 Entirely disable CRDs You should disable unused CRDs to narrow down your attack surface Not all users require the use of PushSecret ClusterSecretStore or ClusterExternalSecret resources |
external secrets Security Best Practices 1 Namespace Isolation To maintain security boundaries ESO ensures that namespaced resources like and are limited to their respective namespaces The following rules apply The purpose of this document is to outline a set of best practices for securing the External Secrets Operator ESO These practices aim to mitigate the risk of successful attacks against ESO and the Kubernetes cluster it integrates with Security Functions and Features | # Security Best Practices
The purpose of this document is to outline a set of best practices for securing the External Secrets Operator (ESO). These practices aim to mitigate the risk of successful attacks against ESO and the Kubernetes cluster it integrates with.
## Security Functions and Features
### 1. Namespace Isolation
To maintain security boundaries, ESO ensures that namespaced resources like `SecretStore` and `ExternalSecret` are limited to their respective namespaces. The following rules apply:
1. `ExternalSecret` resources must not have cross-namespace references of `Kind=SecretStore` or `Kind=Secret` resources
2. `SecretStore` resources must not have cross-namespace references of `Kind=Secret` or others
For cluster-wide resources like `ClusterSecretStore` and `ClusterExternalSecret`, exercise caution since they have access to Secret resources across all namespaces. Minimize RBAC permissions for administrators and developers to the necessary minimum. If cluster-wide resources are not required, it is recommended to disable them.
### 2. Configure ClusterSecretStore match conditions
Utilize the ClusterSecretStore resource to define specific match conditions using `namespaceSelector` or an explicit namespaces list. This restricts the usage of the `ClusterSecretStore` to a predetermined list of namespaces or a namespace that matches a predefined label. Here's an example:
```yaml
apiVersion: external-secrets.io/v1beta1
kind: ClusterSecretStore
metadata:
name: fake
spec:
conditions:
- namespaceSelector:
matchLabels:
app: frontend
```
### 3. Selectively Disable Reconciliation of Cluster-Wide Resources
ESO allows you to selectively disable the reconciliation of cluster-wide resources such as `ClusterSecretStore`, `ClusterExternalSecret`, and `PushSecret`. You can disable the installation of CRDs in the Helm chart or disable reconciliation in the core-controller using the following options:
To disable CRD installation:
```yaml
# disable cluster-wide resources & push secret
crds:
createClusterExternalSecret: false
createClusterSecretStore: false
createPushSecret: false
```
To disable reconciliation in the core-controller:
```
--enable-cluster-external-secret-reconciler
--enable-cluster-store-reconciler
```
### 4. Implement Namespace-Scoped Installation
To further enhance security, consider installing ESO into a specific namespace with restricted access to only that namespace's resources. This prevents access to cluster-wide secrets. Use the following Helm values to scope the controller to a specific namespace:
```yaml
# If set to true, create scoped RBAC roles under the scoped namespace
# and implicitly disable cluster stores and cluster external secrets
scopedRBAC: true
# Specify the namespace where external secrets should be reconciled
scopedNamespace: my-namespace
```
### 5. Restrict Webhook TLS Ciphers
Consider installing ESO restricting webhook ciphers. Use the following Helm values to scope webhook for specific TLS ciphers:
```yaml
webhook:
extraArgs:
tls-ciphers: "TLS_ECDHE_ECDSA_WITH_CHACHA20_POLY1305_SHA256,TLS_ECDHE_RSA_WITH_CHACHA20_POLY1305_SHA256"
```
## Pod Security
The Pods of the External Secrets Operator have been configured to meet the [Pod Security Standards](https://kubernetes.io/docs/concepts/security/pod-security-standards/), specifically the restricted profile. This configuration ensures a strong security posture by implementing recommended best practices for hardening Pods, including those outlined in the [NSA Kubernetes Hardening Guide](https://media.defense.gov/2022/Aug/29/2003066362/-1/-1/0/CTR_KUBERNETES_HARDENING_GUIDANCE_1.2_20220829.PDF).
By adhering to these standards, the External Secrets Operator benefits from a secure and resilient operating environment. The restricted profile has been set as the default configuration since version `v0.8.2`, and it is recommended to maintain this setting to align with the principle of least privilege.
## Role-Based Access Control (RBAC)
The External Secrets Operator operates with elevated privileges within your Kubernetes cluster, allowing it to read and write to all secrets across all namespaces. It is crucial to properly restrict access to ESO resources such as `ExternalSecret` and `SecretStore` where necessary. This is particularly important for cluster-scoped resources like `ClusterExternalSecret` and `ClusterSecretStore`. Unauthorized tampering with these resources by an attacker could lead to unauthorized access to secrets or potential data exfiltration from your system.
In most scenarios, the External Secrets Operator is deployed cluster-wide. However, if you prefer to run it on a per-namespace basis, you can scope it to a specific namespace using the `scopedRBAC` and `scopedNamespace` options in the helm chart.
To ensure a secure RBAC configuration, consider the following checklist:
* Restrict access to execute shell commands (pods/exec) within the External Secrets Operator Pod.
* Restrict access to (Cluster)ExternalSecret and (Cluster)SecretStore resources.
* Limit access to aggregated ClusterRoles (view/edit/admin) as needed.
* If necessary, deploy ESO with scoped RBAC or within a specific namespace.
By carefully managing RBAC permissions and scoping the External Secrets Operator appropriately, you can enhance the security of your Kubernetes cluster.
## Network Traffic and Security
To ensure a secure network environment, it is recommended to restrict network traffic to and from the External Secrets Operator using `NetworkPolicies` or similar mechanisms. By default, the External Secrets Operator does not include pre-defined Network Policies.
To implement network restrictions effectively, consider the following steps:
* Define and apply appropriate NetworkPolicies to limit inbound and outbound traffic for the External Secrets Operator.
* Specify a "deny all" policy by default and selectively permit necessary communication based on your specific requirements.
* Restrict access to only the required endpoints and protocols for the External Secrets Operator, such as communication with the Kubernetes API server or external secret providers.
* Regularly review and update the Network Policies to align with changes in your network infrastructure and security requirements.
It is the responsibility of the user to define and configure Network Policies tailored to their specific environment and security needs. By implementing proper network restrictions, you can enhance the overall security posture of the External Secrets Operator within your Kubernetes cluster.
!!! danger "Data Exfiltration Risk"
If not configured properly ESO may be used to exfiltrate data out of your cluster.
It is advised to create tight NetworkPolicies and use a policy engine such as kyverno to prevent data exfiltration.
### Outbound Traffic Restrictions
#### Core Controller
Restrict outbound traffic from the core controller component to the following destinations:
* `kube-apiserver`: The Kubernetes API server.
* Secret provider (e.g., AWS, GCP): Whenever possible, use private endpoints to establish secure and private communication.
#### Webhook
* Restrict outbound traffic from the webhook component to the `kube-apiserver`.
#### Cert Controller
* Restrict outbound traffic from the cert controller component to the `kube-apiserver`.
### Inbound Traffic Restrictions
#### Core Controller
* Restrict inbound traffic to the core controller component by allowing communication on port `8080` from your monitoring agent.
#### Cert Controller
* Restrict inbound traffic to the cert controller component by allowing communication on port `8080` from your monitoring agent.
* Additionally, permit inbound traffic on port `8081` from the kubelet for health check endpoints (healthz/readyz).
#### Webhook
Restrict inbound traffic to the webhook component as follows:
* Allow communication on port `10250` from the kube-apiserver.
* Allow communication on port `8080` from your monitoring agent.
* Permit inbound traffic on port `8081` from the kubelet for health check endpoints (healthz/readyz).
## Policy Engine Best Practices
To enhance the security and enforce specific policies for External Secrets Operator (ESO) resources such as SecretStore and ExternalSecret, it is recommended to utilize a policy engine like [Kyverno](http://kyverno.io/) or [OPA Gatekeeper](https://github.com/open-policy-agent/gatekeeper). These policy engines provide a way to define and enforce custom policies that restrict changes made to ESO resources.
!!! danger "Data Exfiltration Risk"
ESO could be used to exfiltrate data out of your cluster. You should disable all providers you don't need.
Further, you should implement `NetworkPolicies` to restrict network access to known entities (see above), to prevent data exfiltration.
Here are some recommendations to consider when configuring your policies:
1. **Explicitly Deny Unused Providers**: Create policies that explicitly deny the usage of secret providers that are not required in your environment. This prevents unauthorized access to unnecessary providers and reduces the attack surface.
2. **Restrict Access to Secrets**: Implement policies that restrict access to secrets based on specific conditions. For example, you can define policies to allow access to secrets only if they have a particular prefix in the `.spec.data[].remoteRef.key` field. This helps ensure that only authorized entities can access sensitive information.
3. **Restrict `ClusterSecretStore` References**: Define policies to restrict the usage of ClusterSecretStore references within ExternalSecret resources. This ensures that the resources are properly scoped and prevent potential unauthorized access to secrets across namespaces.
By leveraging a policy engine, you can implement these recommendations and enforce custom policies that align with your organization's security requirements. Please refer to the documentation of the chosen policy engine (e.g., Kyverno or OPA Gatekeeper) for detailed instructions on how to define and enforce policies for ESO resources.
!!! note "Provider Validation Example Policy"
The following policy validates the usage of the `provider` field in the SecretStore manifest.
```yaml
{% filter indent(width=4) %}
{% include 'kyverno-policy-secretstore.yaml' %}
{% endfilter %}
```
## Regular Patches
To maintain a secure environment, it is crucial to regularly patch and update all software components of External Secrets Operator and the underlying cluster. By doing so, known vulnerabilities can be addressed, and the overall system's security can be improved. Here are some recommended practices for ensuring timely updates:
1. **Automated Patching and Updating**: Utilize automated patching and updating tools to streamline the process of keeping software components up-to-date
2. **Regular Update ESO**: Stay informed about the latest updates and releases provided for ESO. The development team regularly releases updates to improve stability, performance, and security. Please refer to the [Stability and Support](../introduction/stability-support.md) documentation for more information on the available updates
3. **Cluster-wide Updates**: Apart from ESO, ensure that all other software components within your cluster, such as the operating system, container runtime, and Kubernetes itself, are regularly patched and updated.
By adhering to a regular patching and updating schedule, you can proactively mitigate security risks associated with known vulnerabilities and ensure the overall stability and security of your ESO deployment.
## Verify Artefacts
### Verify Container Images
The container images of External Secrets Operator are signed using Cosign and the keyless signing feature. To ensure the authenticity and integrity of the container image, you can follow the steps outlined below:
```sh
# Retrieve Image Signature
$ crane digest ghcr.io/external-secrets/external-secrets:v0.8.1
sha256:36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554
# verify signature
$ COSIGN_EXPERIMENTAL=1 cosign verify ghcr.io/external-secrets/external-secrets@sha256:36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 | jq
# ...
[
{
"critical": {
"identity": {
"docker-reference": "ghcr.io/external-secrets/external-secrets"
},
"image": {
"docker-manifest-digest": "sha256:36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554"
},
"type": "cosign container image signature"
},
"optional": {
"1.3.6.1.4.1.57264.1.1": "https://token.actions.githubusercontent.com",
"1.3.6.1.4.1.57264.1.2": "workflow_dispatch",
"1.3.6.1.4.1.57264.1.3": "a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad",
"1.3.6.1.4.1.57264.1.4": "Create Release",
"1.3.6.1.4.1.57264.1.5": "external-secrets/external-secrets",
"1.3.6.1.4.1.57264.1.6": "refs/heads/main",
"Bundle": {
# ...
},
"GITHUB_ACTOR": "gusfcarvalho",
"Issuer": "https://token.actions.githubusercontent.com",
"Subject": "https://github.com/external-secrets/external-secrets/.github/workflows/release.yml@refs/heads/main",
"githubWorkflowName": "Create Release",
"githubWorkflowRef": "refs/heads/main",
"githubWorkflowRepository": "external-secrets/external-secrets",
"githubWorkflowSha": "a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad",
"githubWorkflowTrigger": "workflow_dispatch"
}
}
]
```
In the output of the verification process, pay close attention to the `optional.Issuer` and `optional.Subject` fields. These fields contain important information about the image's authenticity. Verify that the values of Issuer and Subject match the expected values for the ESO container image. If they do not match, it indicates that the image is not legitimate and should not be used.
By following these steps and confirming that the Issuer and Subject fields align with the expected values for the ESO container image, you can ensure that the image has not been tampered with and is safe to use.
### Verifying Provenance
The External Secrets Operator employs the [SLSA](https://slsa.dev/provenance/v0.1) (Supply Chain Levels for Software Artifacts) standard to create and attest to the provenance of its builds. Provenance verification is essential to ensure the integrity and trustworthiness of the software supply chain. This outlines the process of verifying the attested provenance of External Secrets Operator builds using the cosign tool.
```sh
$ COSIGN_EXPERIMENTAL=1 cosign verify-attestation --type slsaprovenance ghcr.io/external-secrets/external-secrets:v0.8.1 | jq .payload -r | base64 --decode | jq
Verification for ghcr.io/external-secrets/external-secrets:v0.8.1 --
The following checks were performed on each of these signatures:
- The cosign claims were validated
- Existence of the claims in the transparency log was verified offline
- Any certificates were verified against the Fulcio roots.
Certificate subject: https://github.com/external-secrets/external-secrets/.github/workflows/release.yml@refs/heads/main
Certificate issuer URL: https://token.actions.githubusercontent.com
GitHub Workflow Trigger: workflow_dispatch
GitHub Workflow SHA: a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad
GitHub Workflow Name: Create Release
GitHub Workflow Trigger external-secrets/external-secrets
GitHub Workflow Ref: refs/heads/main
{
"_type": "https://in-toto.io/Statement/v0.1",
"predicateType": "https://slsa.dev/provenance/v0.2",
"subject": [
{
"name": "ghcr.io/external-secrets/external-secrets",
"digest": {
"sha256": "36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554"
}
}
],
"predicate": {
"builder": {
"id": "https://github.com/external-secrets/external-secrets/Attestations/GitHubHostedActions@v1"
},
"buildType": "https://github.com/Attestations/GitHubActionsWorkflow@v1",
"invocation": {
"configSource": {
"uri": "git+https://github.com/external-secrets/external-secrets",
"digest": {
"sha1": "a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad"
},
"entryPoint": "Create Release"
},
"parameters": {
"version": "v0.8.1"
}
},
[...]
}
}
```
### Fetching SBOM
Every External Secrets Operator image is accompanied by an SBOM (Software Bill of Materials) in SPDX JSON format. The SBOM provides detailed information about the software components and dependencies used in the image. This technical documentation explains the process of downloading and verifying the SBOM for a specific version of External Secrets Operator using the Cosign tool.
```sh
$ crane digest ghcr.io/external-secrets/external-secrets:v0.8.1
sha256:36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554
$ COSIGN_EXPERIMENTAL=1 cosign verify-attestation --type spdx ghcr.io/external-secrets/external-secrets@sha256:36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 | jq '.payload |= @base64d | .payload | fromjson' | jq '.predicate.Data | fromjson'
[...]
{
"SPDXID": "SPDXRef-DOCUMENT",
"name": "ghcr.io/external-secrets/external-secrets@sha256-36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554",
"spdxVersion": "SPDX-2.2",
"creationInfo": {
"created": "2023-03-17T23:17:01.568002344Z",
"creators": [
"Organization: Anchore, Inc",
"Tool: syft-0.40.1"
],
"licenseListVersion": "3.16"
},
"dataLicense": "CC0-1.0",
"documentNamespace": "https://anchore.com/syft/image/ghcr.io/external-secrets/external-secrets@sha256-36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554-83484ebb-b469-45fa-8fcc-9290c4ea4f6f",
"packages": [
[...]
{
"SPDXID": "SPDXRef-c809070b0beb099e",
"name": "tzdata",
"licenseConcluded": "NONE",
"downloadLocation": "NOASSERTION",
"externalRefs": [
{
"referenceCategory": "SECURITY",
"referenceLocator": "cpe:2.3:a:tzdata:tzdata:2021a-1\\+deb11u8:*:*:*:*:*:*:*",
"referenceType": "cpe23Type"
},
{
"referenceCategory": "PACKAGE_MANAGER",
"referenceLocator": "pkg:deb/debian/tzdata@2021a-1+deb11u8?arch=all&distro=debian-11",
"referenceType": "purl"
}
],
"filesAnalyzed": false,
"licenseDeclared": "NONE",
"originator": "Person: GNU Libc Maintainers <[email protected]>",
"sourceInfo": "acquired package info from DPKG DB: /var/lib/dpkg/status.d/tzdata, /usr/share/doc/tzdata/copyright",
"versionInfo": "2021a-1+deb11u8"
}
]
}
``` | external secrets | Security Best Practices The purpose of this document is to outline a set of best practices for securing the External Secrets Operator ESO These practices aim to mitigate the risk of successful attacks against ESO and the Kubernetes cluster it integrates with Security Functions and Features 1 Namespace Isolation To maintain security boundaries ESO ensures that namespaced resources like SecretStore and ExternalSecret are limited to their respective namespaces The following rules apply 1 ExternalSecret resources must not have cross namespace references of Kind SecretStore or Kind Secret resources 2 SecretStore resources must not have cross namespace references of Kind Secret or others For cluster wide resources like ClusterSecretStore and ClusterExternalSecret exercise caution since they have access to Secret resources across all namespaces Minimize RBAC permissions for administrators and developers to the necessary minimum If cluster wide resources are not required it is recommended to disable them 2 Configure ClusterSecretStore match conditions Utilize the ClusterSecretStore resource to define specific match conditions using namespaceSelector or an explicit namespaces list This restricts the usage of the ClusterSecretStore to a predetermined list of namespaces or a namespace that matches a predefined label Here s an example yaml apiVersion external secrets io v1beta1 kind ClusterSecretStore metadata name fake spec conditions namespaceSelector matchLabels app frontend 3 Selectively Disable Reconciliation of Cluster Wide Resources ESO allows you to selectively disable the reconciliation of cluster wide resources such as ClusterSecretStore ClusterExternalSecret and PushSecret You can disable the installation of CRDs in the Helm chart or disable reconciliation in the core controller using the following options To disable CRD installation yaml disable cluster wide resources push secret crds createClusterExternalSecret false createClusterSecretStore false createPushSecret false To disable reconciliation in the core controller enable cluster external secret reconciler enable cluster store reconciler 4 Implement Namespace Scoped Installation To further enhance security consider installing ESO into a specific namespace with restricted access to only that namespace s resources This prevents access to cluster wide secrets Use the following Helm values to scope the controller to a specific namespace yaml If set to true create scoped RBAC roles under the scoped namespace and implicitly disable cluster stores and cluster external secrets scopedRBAC true Specify the namespace where external secrets should be reconciled scopedNamespace my namespace 5 Restrict Webhook TLS Ciphers Consider installing ESO restricting webhook ciphers Use the following Helm values to scope webhook for specific TLS ciphers yaml webhook extraArgs tls ciphers TLS ECDHE ECDSA WITH CHACHA20 POLY1305 SHA256 TLS ECDHE RSA WITH CHACHA20 POLY1305 SHA256 Pod Security The Pods of the External Secrets Operator have been configured to meet the Pod Security Standards https kubernetes io docs concepts security pod security standards specifically the restricted profile This configuration ensures a strong security posture by implementing recommended best practices for hardening Pods including those outlined in the NSA Kubernetes Hardening Guide https media defense gov 2022 Aug 29 2003066362 1 1 0 CTR KUBERNETES HARDENING GUIDANCE 1 2 20220829 PDF By adhering to these standards the External Secrets Operator benefits from a secure and resilient operating environment The restricted profile has been set as the default configuration since version v0 8 2 and it is recommended to maintain this setting to align with the principle of least privilege Role Based Access Control RBAC The External Secrets Operator operates with elevated privileges within your Kubernetes cluster allowing it to read and write to all secrets across all namespaces It is crucial to properly restrict access to ESO resources such as ExternalSecret and SecretStore where necessary This is particularly important for cluster scoped resources like ClusterExternalSecret and ClusterSecretStore Unauthorized tampering with these resources by an attacker could lead to unauthorized access to secrets or potential data exfiltration from your system In most scenarios the External Secrets Operator is deployed cluster wide However if you prefer to run it on a per namespace basis you can scope it to a specific namespace using the scopedRBAC and scopedNamespace options in the helm chart To ensure a secure RBAC configuration consider the following checklist Restrict access to execute shell commands pods exec within the External Secrets Operator Pod Restrict access to Cluster ExternalSecret and Cluster SecretStore resources Limit access to aggregated ClusterRoles view edit admin as needed If necessary deploy ESO with scoped RBAC or within a specific namespace By carefully managing RBAC permissions and scoping the External Secrets Operator appropriately you can enhance the security of your Kubernetes cluster Network Traffic and Security To ensure a secure network environment it is recommended to restrict network traffic to and from the External Secrets Operator using NetworkPolicies or similar mechanisms By default the External Secrets Operator does not include pre defined Network Policies To implement network restrictions effectively consider the following steps Define and apply appropriate NetworkPolicies to limit inbound and outbound traffic for the External Secrets Operator Specify a deny all policy by default and selectively permit necessary communication based on your specific requirements Restrict access to only the required endpoints and protocols for the External Secrets Operator such as communication with the Kubernetes API server or external secret providers Regularly review and update the Network Policies to align with changes in your network infrastructure and security requirements It is the responsibility of the user to define and configure Network Policies tailored to their specific environment and security needs By implementing proper network restrictions you can enhance the overall security posture of the External Secrets Operator within your Kubernetes cluster danger Data Exfiltration Risk If not configured properly ESO may be used to exfiltrate data out of your cluster It is advised to create tight NetworkPolicies and use a policy engine such as kyverno to prevent data exfiltration Outbound Traffic Restrictions Core Controller Restrict outbound traffic from the core controller component to the following destinations kube apiserver The Kubernetes API server Secret provider e g AWS GCP Whenever possible use private endpoints to establish secure and private communication Webhook Restrict outbound traffic from the webhook component to the kube apiserver Cert Controller Restrict outbound traffic from the cert controller component to the kube apiserver Inbound Traffic Restrictions Core Controller Restrict inbound traffic to the core controller component by allowing communication on port 8080 from your monitoring agent Cert Controller Restrict inbound traffic to the cert controller component by allowing communication on port 8080 from your monitoring agent Additionally permit inbound traffic on port 8081 from the kubelet for health check endpoints healthz readyz Webhook Restrict inbound traffic to the webhook component as follows Allow communication on port 10250 from the kube apiserver Allow communication on port 8080 from your monitoring agent Permit inbound traffic on port 8081 from the kubelet for health check endpoints healthz readyz Policy Engine Best Practices To enhance the security and enforce specific policies for External Secrets Operator ESO resources such as SecretStore and ExternalSecret it is recommended to utilize a policy engine like Kyverno http kyverno io or OPA Gatekeeper https github com open policy agent gatekeeper These policy engines provide a way to define and enforce custom policies that restrict changes made to ESO resources danger Data Exfiltration Risk ESO could be used to exfiltrate data out of your cluster You should disable all providers you don t need Further you should implement NetworkPolicies to restrict network access to known entities see above to prevent data exfiltration Here are some recommendations to consider when configuring your policies 1 Explicitly Deny Unused Providers Create policies that explicitly deny the usage of secret providers that are not required in your environment This prevents unauthorized access to unnecessary providers and reduces the attack surface 2 Restrict Access to Secrets Implement policies that restrict access to secrets based on specific conditions For example you can define policies to allow access to secrets only if they have a particular prefix in the spec data remoteRef key field This helps ensure that only authorized entities can access sensitive information 3 Restrict ClusterSecretStore References Define policies to restrict the usage of ClusterSecretStore references within ExternalSecret resources This ensures that the resources are properly scoped and prevent potential unauthorized access to secrets across namespaces By leveraging a policy engine you can implement these recommendations and enforce custom policies that align with your organization s security requirements Please refer to the documentation of the chosen policy engine e g Kyverno or OPA Gatekeeper for detailed instructions on how to define and enforce policies for ESO resources note Provider Validation Example Policy The following policy validates the usage of the provider field in the SecretStore manifest yaml filter indent width 4 include kyverno policy secretstore yaml endfilter Regular Patches To maintain a secure environment it is crucial to regularly patch and update all software components of External Secrets Operator and the underlying cluster By doing so known vulnerabilities can be addressed and the overall system s security can be improved Here are some recommended practices for ensuring timely updates 1 Automated Patching and Updating Utilize automated patching and updating tools to streamline the process of keeping software components up to date 2 Regular Update ESO Stay informed about the latest updates and releases provided for ESO The development team regularly releases updates to improve stability performance and security Please refer to the Stability and Support introduction stability support md documentation for more information on the available updates 3 Cluster wide Updates Apart from ESO ensure that all other software components within your cluster such as the operating system container runtime and Kubernetes itself are regularly patched and updated By adhering to a regular patching and updating schedule you can proactively mitigate security risks associated with known vulnerabilities and ensure the overall stability and security of your ESO deployment Verify Artefacts Verify Container Images The container images of External Secrets Operator are signed using Cosign and the keyless signing feature To ensure the authenticity and integrity of the container image you can follow the steps outlined below sh Retrieve Image Signature crane digest ghcr io external secrets external secrets v0 8 1 sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 verify signature COSIGN EXPERIMENTAL 1 cosign verify ghcr io external secrets external secrets sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 jq critical identity docker reference ghcr io external secrets external secrets image docker manifest digest sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 type cosign container image signature optional 1 3 6 1 4 1 57264 1 1 https token actions githubusercontent com 1 3 6 1 4 1 57264 1 2 workflow dispatch 1 3 6 1 4 1 57264 1 3 a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad 1 3 6 1 4 1 57264 1 4 Create Release 1 3 6 1 4 1 57264 1 5 external secrets external secrets 1 3 6 1 4 1 57264 1 6 refs heads main Bundle GITHUB ACTOR gusfcarvalho Issuer https token actions githubusercontent com Subject https github com external secrets external secrets github workflows release yml refs heads main githubWorkflowName Create Release githubWorkflowRef refs heads main githubWorkflowRepository external secrets external secrets githubWorkflowSha a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad githubWorkflowTrigger workflow dispatch In the output of the verification process pay close attention to the optional Issuer and optional Subject fields These fields contain important information about the image s authenticity Verify that the values of Issuer and Subject match the expected values for the ESO container image If they do not match it indicates that the image is not legitimate and should not be used By following these steps and confirming that the Issuer and Subject fields align with the expected values for the ESO container image you can ensure that the image has not been tampered with and is safe to use Verifying Provenance The External Secrets Operator employs the SLSA https slsa dev provenance v0 1 Supply Chain Levels for Software Artifacts standard to create and attest to the provenance of its builds Provenance verification is essential to ensure the integrity and trustworthiness of the software supply chain This outlines the process of verifying the attested provenance of External Secrets Operator builds using the cosign tool sh COSIGN EXPERIMENTAL 1 cosign verify attestation type slsaprovenance ghcr io external secrets external secrets v0 8 1 jq payload r base64 decode jq Verification for ghcr io external secrets external secrets v0 8 1 The following checks were performed on each of these signatures The cosign claims were validated Existence of the claims in the transparency log was verified offline Any certificates were verified against the Fulcio roots Certificate subject https github com external secrets external secrets github workflows release yml refs heads main Certificate issuer URL https token actions githubusercontent com GitHub Workflow Trigger workflow dispatch GitHub Workflow SHA a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad GitHub Workflow Name Create Release GitHub Workflow Trigger external secrets external secrets GitHub Workflow Ref refs heads main type https in toto io Statement v0 1 predicateType https slsa dev provenance v0 2 subject name ghcr io external secrets external secrets digest sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 predicate builder id https github com external secrets external secrets Attestations GitHubHostedActions v1 buildType https github com Attestations GitHubActionsWorkflow v1 invocation configSource uri git https github com external secrets external secrets digest sha1 a0d2aef2e35c259c9ee75d65f7587e6ed71ef2ad entryPoint Create Release parameters version v0 8 1 Fetching SBOM Every External Secrets Operator image is accompanied by an SBOM Software Bill of Materials in SPDX JSON format The SBOM provides detailed information about the software components and dependencies used in the image This technical documentation explains the process of downloading and verifying the SBOM for a specific version of External Secrets Operator using the Cosign tool sh crane digest ghcr io external secrets external secrets v0 8 1 sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 COSIGN EXPERIMENTAL 1 cosign verify attestation type spdx ghcr io external secrets external secrets sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 jq payload base64d payload fromjson jq predicate Data fromjson SPDXID SPDXRef DOCUMENT name ghcr io external secrets external secrets sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 spdxVersion SPDX 2 2 creationInfo created 2023 03 17T23 17 01 568002344Z creators Organization Anchore Inc Tool syft 0 40 1 licenseListVersion 3 16 dataLicense CC0 1 0 documentNamespace https anchore com syft image ghcr io external secrets external secrets sha256 36e606279dbebac51b4b9300b9fa85e8c08c1c673ba3ecc38af1402a0b035554 83484ebb b469 45fa 8fcc 9290c4ea4f6f packages SPDXID SPDXRef c809070b0beb099e name tzdata licenseConcluded NONE downloadLocation NOASSERTION externalRefs referenceCategory SECURITY referenceLocator cpe 2 3 a tzdata tzdata 2021a 1 deb11u8 referenceType cpe23Type referenceCategory PACKAGE MANAGER referenceLocator pkg deb debian tzdata 2021a 1 deb11u8 arch all distro debian 11 referenceType purl filesAnalyzed false licenseDeclared NONE originator Person GNU Libc Maintainers debian glibc lists debian org sourceInfo acquired package info from DPKG DB var lib dpkg status d tzdata usr share doc tzdata copyright versionInfo 2021a 1 deb11u8 |
external secrets Dockerconfigjson example Please follow the authentication and SecretStore steps of the to setup access to your google cloud account first Here we will give some examples of how to work with a few common k8s secret types We will give this examples here with the gcp provider should work with other providers in the same way Please also check the guides on to understand the details First create a secret in Google Cloud Secrets Manager containing your docker config A few common k8s secret types examples | # A few common k8s secret types examples
Here we will give some examples of how to work with a few common k8s secret types. We will give this examples here with the gcp provider (should work with other providers in the same way). Please also check the guides on [Advanced Templating](templating.md) to understand the details.
Please follow the authentication and SecretStore steps of the [Google Cloud Secrets Manager guide](../provider/google-secrets-manager.md) to setup access to your google cloud account first.
## Dockerconfigjson example
First create a secret in Google Cloud Secrets Manager containing your docker config:
![iam](../pictures/screenshot_docker_config_json_example.png)
Let's call this secret docker-config-example on Google Cloud.
Then create a ExternalSecret resource taking advantage of templating to populate the generated secret:
```yaml
{% include 'gcpsm-docker-config-externalsecret.yaml' %}
```
For Helm users: since Helm interprets the template above, the ExternalSecret resource can be written this way:
```yaml
{% include 'gcpsm-docker-config-helm-externalsecret.yaml' %}
```
For more information, please see [this issue](https://github.com/helm/helm/issues/2798)
This will generate a valid dockerconfigjson secret for you to use!
You can get the final value with:
```bash
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath="{.data.\.dockerconfigjson}" | base64 -d
```
Alternately, if you only have the container registry name and password value, you can take advantage of the advanced ExternalSecret templating functions to create the secret:
```yaml
{% raw %}
apiVersion: external-secrets.io/v1beta1
kind: ExternalSecret
metadata:
name: dk-cfg-example
spec:
refreshInterval: 1h
secretStoreRef:
name: example
kind: SecretStore
target:
template:
type: kubernetes.io/dockerconfigjson
data:
.dockerconfigjson: '{"auths":{".":{"username":"","password":"","auth":""}}}'
data:
- secretKey: registryName
remoteRef:
key: secret/docker-registry-name # "myRegistry"
- secretKey: registryHost
remoteRef:
key: secret/docker-registry-host # "docker.io"
- secretKey: password
remoteRef:
key: secret/docker-registry-password
{% endraw %}
```
## TLS Cert example
We are assuming here that you already have valid certificates, maybe generated with letsencrypt or any other CA. So to simplify you can use openssl to generate a single secret pkcs12 cert based on your cert.pem and privkey.pen files.
```bash
openssl pkcs12 -export -out certificate.p12 -inkey privkey.pem -in cert.pem
```
With a certificate.p12 you can upload it to Google Cloud Secrets Manager:
![p12](../pictures/screenshot_ssl_certificate_p12_example.png)
And now you can create an ExternalSecret that gets it. You will end up with a k8s secret of type tls with pem values.
```yaml
{% include 'gcpsm-tls-externalsecret.yaml' %}
```
You can get their values with:
```bash
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath="{.data.tls\.crt}" | base64 -d
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath="{.data.tls\.key}" | base64 -d
```
## SSH Auth example
Add the ssh privkey to a new Google Cloud Secrets Manager secret:
![ssh](../pictures/screenshot_ssh_privkey_example.png)
And now you can create an ExternalSecret that gets it. You will end up with a k8s secret of type ssh-auth with the privatekey value.
```yaml
{% include 'gcpsm-ssh-auth-externalsecret.yaml' %}
```
You can get the privkey value with:
```bash
kubectl get secret secret-to-be-created -n <namespace> -o jsonpath="{.data.ssh-privatekey}" | base64 -d
```
## More examples
!!! note "We need more examples here"
Feel free to contribute with our docs and add more examples here! | external secrets | A few common k8s secret types examples Here we will give some examples of how to work with a few common k8s secret types We will give this examples here with the gcp provider should work with other providers in the same way Please also check the guides on Advanced Templating templating md to understand the details Please follow the authentication and SecretStore steps of the Google Cloud Secrets Manager guide provider google secrets manager md to setup access to your google cloud account first Dockerconfigjson example First create a secret in Google Cloud Secrets Manager containing your docker config iam pictures screenshot docker config json example png Let s call this secret docker config example on Google Cloud Then create a ExternalSecret resource taking advantage of templating to populate the generated secret yaml include gcpsm docker config externalsecret yaml For Helm users since Helm interprets the template above the ExternalSecret resource can be written this way yaml include gcpsm docker config helm externalsecret yaml For more information please see this issue https github com helm helm issues 2798 This will generate a valid dockerconfigjson secret for you to use You can get the final value with bash kubectl get secret secret to be created n namespace o jsonpath data dockerconfigjson base64 d Alternately if you only have the container registry name and password value you can take advantage of the advanced ExternalSecret templating functions to create the secret yaml raw apiVersion external secrets io v1beta1 kind ExternalSecret metadata name dk cfg example spec refreshInterval 1h secretStoreRef name example kind SecretStore target template type kubernetes io dockerconfigjson data dockerconfigjson auths username password auth data secretKey registryName remoteRef key secret docker registry name myRegistry secretKey registryHost remoteRef key secret docker registry host docker io secretKey password remoteRef key secret docker registry password endraw TLS Cert example We are assuming here that you already have valid certificates maybe generated with letsencrypt or any other CA So to simplify you can use openssl to generate a single secret pkcs12 cert based on your cert pem and privkey pen files bash openssl pkcs12 export out certificate p12 inkey privkey pem in cert pem With a certificate p12 you can upload it to Google Cloud Secrets Manager p12 pictures screenshot ssl certificate p12 example png And now you can create an ExternalSecret that gets it You will end up with a k8s secret of type tls with pem values yaml include gcpsm tls externalsecret yaml You can get their values with bash kubectl get secret secret to be created n namespace o jsonpath data tls crt base64 d kubectl get secret secret to be created n namespace o jsonpath data tls key base64 d SSH Auth example Add the ssh privkey to a new Google Cloud Secrets Manager secret ssh pictures screenshot ssh privkey example png And now you can create an ExternalSecret that gets it You will end up with a k8s secret of type ssh auth with the privatekey value yaml include gcpsm ssh auth externalsecret yaml You can get the privkey value with bash kubectl get secret secret to be created n namespace o jsonpath data ssh privatekey base64 d More examples note We need more examples here Feel free to contribute with our docs and add more examples here |
external secrets note Each data value is interpreted as a Please note that referencing a non existing key in the template will raise an error instead of being suppressed Advanced Templating v2 With External Secrets Operator you can transform the data from the external secret provider before it is stored as You can do this with the Consider using camelcase when defining spec data secretkey example serviceAccountToken | # Advanced Templating v2
With External Secrets Operator you can transform the data from the external secret provider before it is stored as `Kind=Secret`. You can do this with the `Spec.Target.Template`.
Each data value is interpreted as a [Go template](https://golang.org/pkg/text/template/). Please note that referencing a non-existing key in the template will raise an error, instead of being suppressed.
!!! note
Consider using camelcase when defining **.'spec.data.secretkey'**, example: serviceAccountToken
If your secret keys contain **`-` (dashes)**, you will need to reference them using **`index`** </br>
Example: **`\{\{ index .data "service-account-token" \}\}`**
## Helm
When installing ExternalSecrets via `helm`, the template must be escaped so that `helm` will not try to render it. The most straightforward way to accomplish this would be to use backticks ([raw string constants](https://pkg.go.dev/text/template#hdr-Examples)):
```yaml
{% include 'helm-template-v2-escape-sequence.yaml' %}
```
## Examples
You can use templates to inject your secrets into a configuration file that you mount into your pod:
```yaml
{% include 'multiline-template-v2-external-secret.yaml' %}
```
Another example with two keys in the same secret:
```yaml
{% include 'multikey-template-v2-external-secret.yaml' %}
```
### MergePolicy
By default, the templating mechanism will not use any information available from the original `data` and `dataFrom` queries to the provider, and only keep the templated information. It is possible to change this behavior through the use of the `mergePolicy` field. `mergePolicy` currently accepts two values: `Replace` (the default) and `Merge`. When using `Merge`, `data` and `dataFrom` keys will also be embedded into the templated secret, having lower priority than the template outcome. See the example for more information:
```yaml
{% include 'merge-template-v2-external-secret.yaml' %}
```
### TemplateFrom
You do not have to define your templates inline in an ExternalSecret but you can pull `ConfigMaps` or other Secrets that contain a template. Consider the following example:
```yaml
{% include 'template-v2-from-secret.yaml' %}
```
`TemplateFrom` also gives you the ability to Target your template to the Secret's Annotations, Labels or the Data block. It also allows you to render the templated information as `Values` or as `KeysAndValues` through the `templateAs` configuration:
```yaml
{% include 'template-v2-scope-and-target.yaml' %}
```
Lastly, `TemplateFrom` also supports adding `Literal` blocks for quick templating. These `Literal` blocks differ from `Template.Data` as they are rendered as a a `key:value` pair (while the `Template.Data`, you can only template the value).
See an example, how to produce a `htpasswd` file that can be used by an ingress-controller (for example: https://kubernetes.github.io/ingress-nginx/examples/auth/basic/) where the contents of the `htpasswd` file needs to be presented via the `auth` key. We use the `htpasswd` function to create a `bcrytped` hash of the password.
Suppose you have multiple key-value pairs within your provider secret like
```json
{
"user1": "password1",
"user2": "password2",
...
}
```
```yaml
{% include 'template-v2-literal-example.yaml' %}
```
### Extract Keys and Certificates from PKCS#12 Archive
You can use pre-defined functions to extract data from your secrets. Here: extract keys and certificates from a PKCS#12 archive and store it as PEM.
```yaml
{% include 'pkcs12-template-v2-external-secret.yaml' %}
```
### Extract from JWK
You can extract the public or private key parts of a JWK and use them as [PKCS#8](https://pkg.go.dev/crypto/x509#ParsePKCS8PrivateKey) private key or PEM-encoded [PKIX](https://pkg.go.dev/crypto/x509#MarshalPKIXPublicKey) public key.
A JWK looks similar to this:
```json
{
"kty": "RSA",
"kid": "cc34c0a0-bd5a-4a3c-a50d-a2a7db7643df",
"use": "sig",
"n": "pjdss...",
"e": "AQAB"
// ...
}
```
And what you want may be a PEM-encoded public or private key portion of it. Take a look at this example on how to transform it into the desired format:
```yaml
{% include 'jwk-template-v2-external-secret.yaml' %}
```
### Filter PEM blocks
Consider you have a secret that contains both a certificate and a private key encoded in PEM format and it is your goal to use only the certificate from that secret.
```
-----BEGIN PRIVATE KEY-----
MIIEvQIBADANBgkqhkiG9w0BAQEFAASCBKcwggSjAgEAAoIBAQCvxGZOW4IXvGlh
. . .
m8JCpbJXDfSSVxKHgK1Siw4K6pnTsIA2e/Z+Ha2fvtocERjq7VQMAJFaIZSTKo9Q
JwwY+vj0yxWjyzHUzZB33tg=
-----END PRIVATE KEY-----
-----BEGIN CERTIFICATE-----
MIIDMDCCAhigAwIBAgIQabPaXuZCQaCg+eQAVptGGDANBgkqhkiG9w0BAQsFADAV
. . .
NtFUGA95RGN9s+pl6XY0YARPHf5O76ErC1OZtDTR5RdyQfcM+94gYZsexsXl0aQO
9YD3Wg==
-----END CERTIFICATE-----
```
You can achieve that by using the `filterPEM` function to extract a specific type of PEM block from that secret. If multiple blocks of that type (here: `CERTIFICATE`) exist, all of them are returned in the order specified. To extract a specific type of PEM block, pass the type as a string argument to the filterPEM function. Take a look at this example of how to transform a secret which contains a private key and a certificate into the desired format:
```yaml
{% include 'filterpem-template-v2-external-secret.yaml' %}
```
## Templating with PushSecret
`PushSecret` templating is much like `ExternalSecrets` templating. In-fact under the hood, it's using the same data structure.
Which means, anything described in the above should be possible with push secret as well resulting in a templated secret
created at the provider.
```yaml
{% include 'template-v2-push-secret.yaml' %}
```
## Helper functions
!!! info inline end
Note: we removed `env` and `expandenv` from sprig functions for security reasons.
We provide a couple of convenience functions that help you transform your secrets. This is useful when dealing with PKCS#12 archives or JSON Web Keys (JWK).
In addition to that you can use over 200+ [sprig functions](http://masterminds.github.io/sprig/). If you feel a function is missing or might be valuable feel free to open an issue and submit a [pull request](../contributing/process.md#submitting-a-pull-request).
<br/>
| Function | Description |
| ---------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| pkcs12key | Extracts all private keys from a PKCS#12 archive and encodes them in **PKCS#8 PEM** format. |
| pkcs12keyPass | Same as `pkcs12key`. Uses the provided password to decrypt the PKCS#12 archive. |
| pkcs12cert | Extracts all certificates from a PKCS#12 archive and orders them if possible. If disjunct or multiple leaf certs are provided they are returned as-is. <br/> Sort order: `leaf / intermediate(s) / root`. |
| pkcs12certPass | Same as `pkcs12cert`. Uses the provided password to decrypt the PKCS#12 archive. |
| pemToPkcs12 | Takes a PEM encoded certificate and key and creates a base64 encoded PKCS#12 archive. |
| pemToPkcs12Pass | Same as `pemToPkcs12`. Uses the provided password to encrypt the PKCS#12 archive. |
| fullPemToPkcs12 | Takes a PEM encoded certificates chain and key and creates a base64 encoded PKCS#12 archive. |
| fullPemToPkcs12Pass | Same as `fullPemToPkcs12`. Uses the provided password to encrypt the PKCS#12 archive. |
| filterPEM | Filters PEM blocks with a specific type from a list of PEM blocks. |
| jwkPublicKeyPem | Takes an json-serialized JWK and returns an PEM block of type `PUBLIC KEY` that contains the public key. [See here](https://golang.org/pkg/crypto/x509/#MarshalPKIXPublicKey) for details. |
| jwkPrivateKeyPem | Takes an json-serialized JWK as `string` and returns an PEM block of type `PRIVATE KEY` that contains the private key in PKCS #8 format. [See here](https://golang.org/pkg/crypto/x509/#MarshalPKCS8PrivateKey) for details. |
| toYaml | Takes an interface, marshals it to yaml. It returns a string, even on marshal error (empty string). |
| fromYaml | Function converts a YAML document into a map[string]any. |
## Migrating from v1
If you are still using `v1alpha1`, You have to opt-in to use the new engine version by specifying `template.engineVersion=v2`:
```yaml
apiVersion: external-secrets.io/v1alpha1
kind: ExternalSecret
metadata:
name: secret
spec:
# ...
target:
template:
engineVersion: v2
# ...
```
The biggest change was that basically all function parameter types were changed from accepting/returning `[]byte` to `string`. This is relevant for you because now you don't need to specify `toString` all the time at the end of a template pipeline.
```yaml
{% raw %}
apiVersion: external-secrets.io/v1alpha1
kind: ExternalSecret
# ...
spec:
target:
template:
engineVersion: v2
data:
# this used to be
egg: "new: "
{% endraw %}
```
##### Functions removed/replaced
- `base64encode` was renamed to `b64enc`.
- `base64decode` was renamed to `b64dec`. Any errors that occur during decoding are silenced.
- `fromJSON` was renamed to `fromJson`. Any errors that occur during unmarshalling are silenced.
- `toJSON` was renamed to `toJson`. Any errors that occur during marshalling are silenced.
- `pkcs12key` and `pkcs12keyPass` encode the PKCS#8 key directly into PEM format. There is no need to call `pemPrivateKey` anymore. Also, these functions do extract all private keys from the PKCS#12 archive not just the first one.
- `pkcs12cert` and `pkcs12certPass` encode the certs directly into PEM format. There is no need to call `pemCertificate` anymore. These functions now **extract all certificates** from the PKCS#12 archive not just the first one.
- `toString` implementation was replaced by the `sprig` implementation and should be api-compatible.
- `toBytes` was removed.
- `pemPrivateKey` was removed. It's now implemented within the `pkcs12*` functions.
- `pemCertificate` was removed. It's now implemented within the `pkcs12*` functions. | external secrets | Advanced Templating v2 With External Secrets Operator you can transform the data from the external secret provider before it is stored as Kind Secret You can do this with the Spec Target Template Each data value is interpreted as a Go template https golang org pkg text template Please note that referencing a non existing key in the template will raise an error instead of being suppressed note Consider using camelcase when defining spec data secretkey example serviceAccountToken If your secret keys contain dashes you will need to reference them using index br Example index data service account token Helm When installing ExternalSecrets via helm the template must be escaped so that helm will not try to render it The most straightforward way to accomplish this would be to use backticks raw string constants https pkg go dev text template hdr Examples yaml include helm template v2 escape sequence yaml Examples You can use templates to inject your secrets into a configuration file that you mount into your pod yaml include multiline template v2 external secret yaml Another example with two keys in the same secret yaml include multikey template v2 external secret yaml MergePolicy By default the templating mechanism will not use any information available from the original data and dataFrom queries to the provider and only keep the templated information It is possible to change this behavior through the use of the mergePolicy field mergePolicy currently accepts two values Replace the default and Merge When using Merge data and dataFrom keys will also be embedded into the templated secret having lower priority than the template outcome See the example for more information yaml include merge template v2 external secret yaml TemplateFrom You do not have to define your templates inline in an ExternalSecret but you can pull ConfigMaps or other Secrets that contain a template Consider the following example yaml include template v2 from secret yaml TemplateFrom also gives you the ability to Target your template to the Secret s Annotations Labels or the Data block It also allows you to render the templated information as Values or as KeysAndValues through the templateAs configuration yaml include template v2 scope and target yaml Lastly TemplateFrom also supports adding Literal blocks for quick templating These Literal blocks differ from Template Data as they are rendered as a a key value pair while the Template Data you can only template the value See an example how to produce a htpasswd file that can be used by an ingress controller for example https kubernetes github io ingress nginx examples auth basic where the contents of the htpasswd file needs to be presented via the auth key We use the htpasswd function to create a bcrytped hash of the password Suppose you have multiple key value pairs within your provider secret like json user1 password1 user2 password2 yaml include template v2 literal example yaml Extract Keys and Certificates from PKCS 12 Archive You can use pre defined functions to extract data from your secrets Here extract keys and certificates from a PKCS 12 archive and store it as PEM yaml include pkcs12 template v2 external secret yaml Extract from JWK You can extract the public or private key parts of a JWK and use them as PKCS 8 https pkg go dev crypto x509 ParsePKCS8PrivateKey private key or PEM encoded PKIX https pkg go dev crypto x509 MarshalPKIXPublicKey public key A JWK looks similar to this json kty RSA kid cc34c0a0 bd5a 4a3c a50d a2a7db7643df use sig n pjdss e AQAB And what you want may be a PEM encoded public or private key portion of it Take a look at this example on how to transform it into the desired format yaml include jwk template v2 external secret yaml Filter PEM blocks Consider you have a secret that contains both a certificate and a private key encoded in PEM format and it is your goal to use only the certificate from that secret BEGIN PRIVATE KEY MIIEvQIBADANBgkqhkiG9w0BAQEFAASCBKcwggSjAgEAAoIBAQCvxGZOW4IXvGlh m8JCpbJXDfSSVxKHgK1Siw4K6pnTsIA2e Z Ha2fvtocERjq7VQMAJFaIZSTKo9Q JwwY vj0yxWjyzHUzZB33tg END PRIVATE KEY BEGIN CERTIFICATE MIIDMDCCAhigAwIBAgIQabPaXuZCQaCg eQAVptGGDANBgkqhkiG9w0BAQsFADAV NtFUGA95RGN9s pl6XY0YARPHf5O76ErC1OZtDTR5RdyQfcM 94gYZsexsXl0aQO 9YD3Wg END CERTIFICATE You can achieve that by using the filterPEM function to extract a specific type of PEM block from that secret If multiple blocks of that type here CERTIFICATE exist all of them are returned in the order specified To extract a specific type of PEM block pass the type as a string argument to the filterPEM function Take a look at this example of how to transform a secret which contains a private key and a certificate into the desired format yaml include filterpem template v2 external secret yaml Templating with PushSecret PushSecret templating is much like ExternalSecrets templating In fact under the hood it s using the same data structure Which means anything described in the above should be possible with push secret as well resulting in a templated secret created at the provider yaml include template v2 push secret yaml Helper functions info inline end Note we removed env and expandenv from sprig functions for security reasons We provide a couple of convenience functions that help you transform your secrets This is useful when dealing with PKCS 12 archives or JSON Web Keys JWK In addition to that you can use over 200 sprig functions http masterminds github io sprig If you feel a function is missing or might be valuable feel free to open an issue and submit a pull request contributing process md submitting a pull request br Function Description pkcs12key Extracts all private keys from a PKCS 12 archive and encodes them in PKCS 8 PEM format pkcs12keyPass Same as pkcs12key Uses the provided password to decrypt the PKCS 12 archive pkcs12cert Extracts all certificates from a PKCS 12 archive and orders them if possible If disjunct or multiple leaf certs are provided they are returned as is br Sort order leaf intermediate s root pkcs12certPass Same as pkcs12cert Uses the provided password to decrypt the PKCS 12 archive pemToPkcs12 Takes a PEM encoded certificate and key and creates a base64 encoded PKCS 12 archive pemToPkcs12Pass Same as pemToPkcs12 Uses the provided password to encrypt the PKCS 12 archive fullPemToPkcs12 Takes a PEM encoded certificates chain and key and creates a base64 encoded PKCS 12 archive fullPemToPkcs12Pass Same as fullPemToPkcs12 Uses the provided password to encrypt the PKCS 12 archive filterPEM Filters PEM blocks with a specific type from a list of PEM blocks jwkPublicKeyPem Takes an json serialized JWK and returns an PEM block of type PUBLIC KEY that contains the public key See here https golang org pkg crypto x509 MarshalPKIXPublicKey for details jwkPrivateKeyPem Takes an json serialized JWK as string and returns an PEM block of type PRIVATE KEY that contains the private key in PKCS 8 format See here https golang org pkg crypto x509 MarshalPKCS8PrivateKey for details toYaml Takes an interface marshals it to yaml It returns a string even on marshal error empty string fromYaml Function converts a YAML document into a map string any Migrating from v1 If you are still using v1alpha1 You have to opt in to use the new engine version by specifying template engineVersion v2 yaml apiVersion external secrets io v1alpha1 kind ExternalSecret metadata name secret spec target template engineVersion v2 The biggest change was that basically all function parameter types were changed from accepting returning byte to string This is relevant for you because now you don t need to specify toString all the time at the end of a template pipeline yaml raw apiVersion external secrets io v1alpha1 kind ExternalSecret spec target template engineVersion v2 data this used to be egg new endraw Functions removed replaced base64encode was renamed to b64enc base64decode was renamed to b64dec Any errors that occur during decoding are silenced fromJSON was renamed to fromJson Any errors that occur during unmarshalling are silenced toJSON was renamed to toJson Any errors that occur during marshalling are silenced pkcs12key and pkcs12keyPass encode the PKCS 8 key directly into PEM format There is no need to call pemPrivateKey anymore Also these functions do extract all private keys from the PKCS 12 archive not just the first one pkcs12cert and pkcs12certPass encode the certs directly into PEM format There is no need to call pemCertificate anymore These functions now extract all certificates from the PKCS 12 archive not just the first one toString implementation was replaced by the sprig implementation and should be api compatible toBytes was removed pemPrivateKey was removed It s now implemented within the pkcs12 functions pemCertificate was removed It s now implemented within the pkcs12 functions |
external secrets In order to do so it is possible to define a set of rewrite operations using These operations can be stacked hence allowing complex manipulations of the secret keys When calling out an ExternalSecret with or it is possible that you end up with a kubernetes secret that has conflicts in the key names or that you simply want to remove a common path from the secret keys Rewriting Keys in DataFrom Methods Rewrite operations are all applied before is applied | # Rewriting Keys in DataFrom
When calling out an ExternalSecret with `dataFrom.extract` or `dataFrom.find`, it is possible that you end up with a kubernetes secret that has conflicts in the key names, or that you simply want to remove a common path from the secret keys.
In order to do so, it is possible to define a set of rewrite operations using `dataFrom.rewrite`. These operations can be stacked, hence allowing complex manipulations of the secret keys.
Rewrite operations are all applied before `ConversionStrategy` is applied.
## Methods
### Regexp
This method implements rewriting through the use of regular expressions. It needs a `source` and a `target` field. The source field is where the definition of the matching regular expression goes, where the `target` field is where the replacing expression goes.
Some considerations about the implementation of Regexp Rewrite:
1. The input of a subsequent rewrite operation are the outputs of the previous rewrite.
2. If a given set of keys do not match any Rewrite operation, there will be no error. Rather, the original keys will be used.
3. If a `source` is not a compilable `regexp` expression, an error will be produced and the external secret goes into a error state.
## Examples
### Removing a common path from find operations
The following ExternalSecret:
```yaml
{% include 'datafrom-rewrite-remove-path.yaml' %}
```
Will get all the secrets matching `path/to/my/secrets/*` and then rewrite them by removing the common path away.
In this example, if we had the following secrets available in the provider:
```
path/to/my/secrets/username
path/to/my/secrets/password
```
the output kubernetes secret would be:
```yaml
apiVersion: v1
kind: Secret
type: Opaque
data:
username: ...
password: ...
```
### Avoiding key collisions
The following ExternalSecret:
```yaml
{% include 'datafrom-rewrite-conflict.yaml' %}
```
Will allow two secrets with the same JSON keys to be imported into a Kubernetes Secret without any conflict.
In this example, if we had the following secrets available in the provider:
```json
{
"my-secrets-dev": {
"password": "bar",
},
"my-secrets-prod": {
"password": "safebar",
}
}
```
the output kubernetes secret would be:
```yaml
apiVersion: v1
kind: Secret
type: Opaque
data:
dev_password: YmFy #bar
prod_password: c2FmZWJhcg== #safebar
```
### Remove invalid characters
The following ExternalSecret:
```yaml
{% include 'datafrom-rewrite-invalid-characters.yaml' %}
```
Will remove invalid characters from the secret key.
In this example, if we had the following secrets available in the provider:
```json
{
"development": {
"foo/bar": "1111",
"foo$baz": "2222"
}
}
```
the output kubernetes secret would be:
```yaml
apiVersion: v1
kind: Secret
type: Opaque
data:
foo_bar: MTExMQ== #1111
foo_baz: MjIyMg== #2222
```
## Limitations
Regexp Rewrite is based on golang `regexp`, which in turns implements `RE2` regexp language. There a a series of known limitations to this implementation, such as:
* Lack of ability to do lookaheads or lookbehinds;
* Lack of negation expressions;
* Lack of support for conditional branches;
* Lack of support for possessive repetitions.
A list of compatibility and known limitations considering other commonly used regexp frameworks (such as PCRE and PERL) are listed [here](https://github.com/google/re2/wiki/Syntax). | external secrets | Rewriting Keys in DataFrom When calling out an ExternalSecret with dataFrom extract or dataFrom find it is possible that you end up with a kubernetes secret that has conflicts in the key names or that you simply want to remove a common path from the secret keys In order to do so it is possible to define a set of rewrite operations using dataFrom rewrite These operations can be stacked hence allowing complex manipulations of the secret keys Rewrite operations are all applied before ConversionStrategy is applied Methods Regexp This method implements rewriting through the use of regular expressions It needs a source and a target field The source field is where the definition of the matching regular expression goes where the target field is where the replacing expression goes Some considerations about the implementation of Regexp Rewrite 1 The input of a subsequent rewrite operation are the outputs of the previous rewrite 2 If a given set of keys do not match any Rewrite operation there will be no error Rather the original keys will be used 3 If a source is not a compilable regexp expression an error will be produced and the external secret goes into a error state Examples Removing a common path from find operations The following ExternalSecret yaml include datafrom rewrite remove path yaml Will get all the secrets matching path to my secrets and then rewrite them by removing the common path away In this example if we had the following secrets available in the provider path to my secrets username path to my secrets password the output kubernetes secret would be yaml apiVersion v1 kind Secret type Opaque data username password Avoiding key collisions The following ExternalSecret yaml include datafrom rewrite conflict yaml Will allow two secrets with the same JSON keys to be imported into a Kubernetes Secret without any conflict In this example if we had the following secrets available in the provider json my secrets dev password bar my secrets prod password safebar the output kubernetes secret would be yaml apiVersion v1 kind Secret type Opaque data dev password YmFy bar prod password c2FmZWJhcg safebar Remove invalid characters The following ExternalSecret yaml include datafrom rewrite invalid characters yaml Will remove invalid characters from the secret key In this example if we had the following secrets available in the provider json development foo bar 1111 foo baz 2222 the output kubernetes secret would be yaml apiVersion v1 kind Secret type Opaque data foo bar MTExMQ 1111 foo baz MjIyMg 2222 Limitations Regexp Rewrite is based on golang regexp which in turns implements RE2 regexp language There a a series of known limitations to this implementation such as Lack of ability to do lookaheads or lookbehinds Lack of negation expressions Lack of support for conditional branches Lack of support for possessive repetitions A list of compatibility and known limitations considering other commonly used regexp frameworks such as PCRE and PERL are listed here https github com google re2 wiki Syntax |
external secrets Advantages created to get credentials with no manual intervention from the beginning FluxCD is a GitOps operator for Kubernetes It synchronizes the status of the cluster from manifests allocated in GitOps using FluxCD v2 This approach has several advantages as follows different repositories Git or Helm This approach fits perfectly with External Secrets on clusters which are dynamically | # GitOps using FluxCD (v2)
FluxCD is a GitOps operator for Kubernetes. It synchronizes the status of the cluster from manifests allocated in
different repositories (Git or Helm). This approach fits perfectly with External Secrets on clusters which are dynamically
created, to get credentials with no manual intervention from the beginning.
## Advantages
This approach has several advantages as follows:
* **Homogenize environments** allowing developers to use the same toolset in Kind in the same way they do in the cloud
provider distributions such as EKS or GKE. This accelerates the development
* **Reduce security risks**, because credentials can be easily obtained, so temptation to store them locally is reduced.
* **Application compatibility increase**: Applications are deployed in different ways, and sometimes they need to share
credentials. This can be done using External Secrets as a wire for them at real time.
* **Automation by default** oh, come on!
## The approach
FluxCD is composed by several controllers dedicated to manage different custom resources. The most important
ones are **Kustomization** (to clarify, Flux one, not Kubernetes' one) and **HelmRelease** to deploy using the approaches
of the same names.
External Secrets can be deployed using Helm [as explained here](../introduction/getting-started.md). The deployment includes the
CRDs if enabled on the `values.yaml`, but after this, you need to deploy some `SecretStore` to start
getting credentials from your secrets manager with External Secrets.
> The idea of this guide is to deploy the whole stack, using flux, needed by developers not to worry about the credentials,
> but only about the application and its code.
## The problem
This can sound easy, but External Secrets is deployed using Helm, which is managed by the HelmController,
and your custom resources, for example a `ClusterSecretStore` and the related `Secret`, are often deployed using a
`kustomization.yaml`, which is deployed by the KustomizeController.
Both controllers manage the resources independently, at different moments, with no possibility to wait each other.
This means that we have a wonderful race condition where sometimes the CRs (`SecretStore`,`ClusterSecretStore`...) tries
to be deployed before than the CRDs needed to recognize them.
## The solution
Let's see the conditions to start working on a solution:
* The External Secrets operator is deployed with Helm, and admits disabling the CRDs deployment
* The race condition only affects the deployment of `CustomResourceDefinition` and the CRs needed later
* CRDs can be deployed directly from the Git repository of the project using a Flux `Kustomization`
* Required CRs can be deployed using a Flux `Kustomization` too, allowing dependency between CRDs and CRs
* All previous manifests can be applied with a Kubernetes `kustomization`
## Create the main kustomization
To have a better view of things needed later, the first manifest to be created is the `kustomization.yaml`
```yaml
{% include 'gitops/kustomization.yaml' %}
```
## Create the secret
To access your secret manager, External Secrets needs some credentials. They are stored inside a Secret, which is intended
to be deployed by automation as a good practise. This time, a placeholder called `secret-token.yaml` is show as an example:
```yaml
# The namespace.yaml first
{% include 'gitops/namespace.yaml' %}
```
```yaml
{% include 'gitops/secret-token.yaml' %}
```
## Creating the references to repositories
Create a manifest called `repositories.yaml` to store the references to external repositories for Flux
```yaml
{% include 'gitops/repositories.yaml' %}
```
## Deploy the CRDs
As mentioned, CRDs can be deployed using the official Helm package, but to solve the race condition, they will be deployed
from our git repository using a Kustomization manifest called `deployment-crds.yaml` as follows:
```yaml
{% include 'gitops/deployment-crds.yaml' %}
```
## Deploy the operator
The operator is deployed using a HelmRelease manifest to deploy the Helm package, but due to the special race condition,
the deployment must be disabled in the `values` of the manifest called `deployment.yaml`, as follows:
```yaml
{% include 'gitops/deployment.yaml' %}
```
## Deploy the CRs
Now, be ready for the arcane magic. Create a Kustomization manifest called `deployment-crs.yaml` with the following content:
```yaml
{% include 'gitops/deployment-crs.yaml' %}
```
There are several interesting details to see here, that finally solves the race condition:
1. First one is the field `dependsOn`, which points to a previous Kustomization called `external-secrets-crds`. This
dependency forces this deployment to wait for the other to be ready, before start being deployed.
2. The reference to the place where to find the CRs
```yaml
path: ./infrastructure/external-secrets/crs
sourceRef:
kind: GitRepository
name: flux-system
```
Custom Resources will be searched in the relative path `./infrastructure/external-secrets/crs` of the GitRepository
called `flux-system`, which is a reference to the same repository that FluxCD watches to synchronize the cluster.
With fewer words, a reference to itself, but going to another directory called `crs`
Of course, allocate inside the mentioned path `./infrastructure/external-secrets/crs`, all the desired CRs to be deployed,
for example, a manifest `clusterSecretStore.yaml` to reach your Hashicorp Vault as follows:
```yaml
{% include 'gitops/crs/clusterSecretStore.yaml' %}
```
## Results
At the end, the required files tree is shown in the following picture:
![FluxCD files tree](../pictures/screenshot_gitops_final_directory_tree.png) | external secrets | GitOps using FluxCD v2 FluxCD is a GitOps operator for Kubernetes It synchronizes the status of the cluster from manifests allocated in different repositories Git or Helm This approach fits perfectly with External Secrets on clusters which are dynamically created to get credentials with no manual intervention from the beginning Advantages This approach has several advantages as follows Homogenize environments allowing developers to use the same toolset in Kind in the same way they do in the cloud provider distributions such as EKS or GKE This accelerates the development Reduce security risks because credentials can be easily obtained so temptation to store them locally is reduced Application compatibility increase Applications are deployed in different ways and sometimes they need to share credentials This can be done using External Secrets as a wire for them at real time Automation by default oh come on The approach FluxCD is composed by several controllers dedicated to manage different custom resources The most important ones are Kustomization to clarify Flux one not Kubernetes one and HelmRelease to deploy using the approaches of the same names External Secrets can be deployed using Helm as explained here introduction getting started md The deployment includes the CRDs if enabled on the values yaml but after this you need to deploy some SecretStore to start getting credentials from your secrets manager with External Secrets The idea of this guide is to deploy the whole stack using flux needed by developers not to worry about the credentials but only about the application and its code The problem This can sound easy but External Secrets is deployed using Helm which is managed by the HelmController and your custom resources for example a ClusterSecretStore and the related Secret are often deployed using a kustomization yaml which is deployed by the KustomizeController Both controllers manage the resources independently at different moments with no possibility to wait each other This means that we have a wonderful race condition where sometimes the CRs SecretStore ClusterSecretStore tries to be deployed before than the CRDs needed to recognize them The solution Let s see the conditions to start working on a solution The External Secrets operator is deployed with Helm and admits disabling the CRDs deployment The race condition only affects the deployment of CustomResourceDefinition and the CRs needed later CRDs can be deployed directly from the Git repository of the project using a Flux Kustomization Required CRs can be deployed using a Flux Kustomization too allowing dependency between CRDs and CRs All previous manifests can be applied with a Kubernetes kustomization Create the main kustomization To have a better view of things needed later the first manifest to be created is the kustomization yaml yaml include gitops kustomization yaml Create the secret To access your secret manager External Secrets needs some credentials They are stored inside a Secret which is intended to be deployed by automation as a good practise This time a placeholder called secret token yaml is show as an example yaml The namespace yaml first include gitops namespace yaml yaml include gitops secret token yaml Creating the references to repositories Create a manifest called repositories yaml to store the references to external repositories for Flux yaml include gitops repositories yaml Deploy the CRDs As mentioned CRDs can be deployed using the official Helm package but to solve the race condition they will be deployed from our git repository using a Kustomization manifest called deployment crds yaml as follows yaml include gitops deployment crds yaml Deploy the operator The operator is deployed using a HelmRelease manifest to deploy the Helm package but due to the special race condition the deployment must be disabled in the values of the manifest called deployment yaml as follows yaml include gitops deployment yaml Deploy the CRs Now be ready for the arcane magic Create a Kustomization manifest called deployment crs yaml with the following content yaml include gitops deployment crs yaml There are several interesting details to see here that finally solves the race condition 1 First one is the field dependsOn which points to a previous Kustomization called external secrets crds This dependency forces this deployment to wait for the other to be ready before start being deployed 2 The reference to the place where to find the CRs yaml path infrastructure external secrets crs sourceRef kind GitRepository name flux system Custom Resources will be searched in the relative path infrastructure external secrets crs of the GitRepository called flux system which is a reference to the same repository that FluxCD watches to synchronize the cluster With fewer words a reference to itself but going to another directory called crs Of course allocate inside the mentioned path infrastructure external secrets crs all the desired CRs to be deployed for example a manifest clusterSecretStore yaml to reach your Hashicorp Vault as follows yaml include gitops crs clusterSecretStore yaml Results At the end the required files tree is shown in the following picture FluxCD files tree pictures screenshot gitops final directory tree png |
external secrets Bitwarden support using webhook provider How does it work External Secrets Operator 0 8 0 Multiple Cluster SecretStores using the webhook provider To make external secrets compatible with Bitwarden we need Bitwarden is an integrated open source password management solution for individuals teams and business organizations | # Bitwarden support using webhook provider
Bitwarden is an integrated open source password management solution for individuals, teams, and business organizations.
## How does it work?
To make external-secrets compatible with Bitwarden, we need:
* External Secrets Operator >= 0.8.0
* Multiple (Cluster)SecretStores using the webhook provider
* BitWarden CLI image running `bw serve`
When you create a new external-secret object, the External Secrets webhook provider will query the Bitwarden CLI pod that is synced with the Bitwarden server.
## Requirements
* Bitwarden account (it also works with Vaultwarden!)
* A Kubernetes secret which contains your Bitwarden credentials
* A Docker image running the Bitwarden CLI. You could use `ghcr.io/charlesthomas/bitwarden-cli:2023.12.1` or build your own.
Here is an example of a Dockerfile used to build the image:
```dockerfile
FROM debian:sid
ENV BW_CLI_VERSION=2023.12.1
RUN apt update && \
apt install -y wget unzip && \
wget https://github.com/bitwarden/clients/releases/download/cli-v${BW_CLI_VERSION}/bw-linux-${BW_CLI_VERSION}.zip && \
unzip bw-linux-${BW_CLI_VERSION}.zip && \
chmod +x bw && \
mv bw /usr/local/bin/bw && \
rm -rfv *.zip
COPY entrypoint.sh /
CMD ["/entrypoint.sh"]
```
And the content of `entrypoint.sh`:
```bash
#!/bin/bash
set -e
bw config server ${BW_HOST}
export BW_SESSION=$(bw login ${BW_USER} --passwordenv BW_PASSWORD --raw)
bw unlock --check
echo 'Running `bw server` on port 8087'
bw serve --hostname 0.0.0.0 #--disable-origin-protection
```
## Deploy Bitwarden credentials
```yaml
{% include 'bitwarden-cli-secrets.yaml' %}
```
## Deploy Bitwarden CLI container
```yaml
{% include 'bitwarden-cli-deployment.yaml' %}
```
> NOTE: Deploying a network policy is recommended since there is no authentication to query the Bitwarden CLI, which means that your secrets are exposed.
> NOTE: In this example the Liveness probe is querying /sync to ensure that the Bitwarden CLI is able to connect to the server and is also synchronised. (The secret sync is only every 2 minutes in this example)
## Deploy (Cluster)SecretStores
There are four possible (Cluster)SecretStores to deploy, each can access different types of fields from an item in the Bitwarden vault. It is not required to deploy them all.
```yaml
{% include 'bitwarden-secret-store.yaml' %}
```
## Usage
(Cluster)SecretStores:
* `bitwarden-login`: Use to get the `username` or `password` fields
* `bitwarden-fields`: Use to get custom fields
* `bitwarden-notes`: Use to get notes
* `bitwarden-attachments`: Use to get attachments
remoteRef:
* `key`: ID of a secret, which can be found in the URL `itemId` parameter:
`https://myvault.com/#/vault?type=login&itemId=........-....-....-....-............`s
* `property`: Name of the field to access
* `username` for the username of a secret (`bitwarden-login` SecretStore)
* `password` for the password of a secret (`bitwarden-login` SecretStore)
* `name_of_the_custom_field` for any custom field (`bitwarden-fields` SecretStore)
* `id_or_name_of_the_attachment` for any attachment (`bitwarden-attachment`, SecretStore)
```yaml
{% include 'bitwarden-secret.yaml' %}
``` | external secrets | Bitwarden support using webhook provider Bitwarden is an integrated open source password management solution for individuals teams and business organizations How does it work To make external secrets compatible with Bitwarden we need External Secrets Operator 0 8 0 Multiple Cluster SecretStores using the webhook provider BitWarden CLI image running bw serve When you create a new external secret object the External Secrets webhook provider will query the Bitwarden CLI pod that is synced with the Bitwarden server Requirements Bitwarden account it also works with Vaultwarden A Kubernetes secret which contains your Bitwarden credentials A Docker image running the Bitwarden CLI You could use ghcr io charlesthomas bitwarden cli 2023 12 1 or build your own Here is an example of a Dockerfile used to build the image dockerfile FROM debian sid ENV BW CLI VERSION 2023 12 1 RUN apt update apt install y wget unzip wget https github com bitwarden clients releases download cli v BW CLI VERSION bw linux BW CLI VERSION zip unzip bw linux BW CLI VERSION zip chmod x bw mv bw usr local bin bw rm rfv zip COPY entrypoint sh CMD entrypoint sh And the content of entrypoint sh bash bin bash set e bw config server BW HOST export BW SESSION bw login BW USER passwordenv BW PASSWORD raw bw unlock check echo Running bw server on port 8087 bw serve hostname 0 0 0 0 disable origin protection Deploy Bitwarden credentials yaml include bitwarden cli secrets yaml Deploy Bitwarden CLI container yaml include bitwarden cli deployment yaml NOTE Deploying a network policy is recommended since there is no authentication to query the Bitwarden CLI which means that your secrets are exposed NOTE In this example the Liveness probe is querying sync to ensure that the Bitwarden CLI is able to connect to the server and is also synchronised The secret sync is only every 2 minutes in this example Deploy Cluster SecretStores There are four possible Cluster SecretStores to deploy each can access different types of fields from an item in the Bitwarden vault It is not required to deploy them all yaml include bitwarden secret store yaml Usage Cluster SecretStores bitwarden login Use to get the username or password fields bitwarden fields Use to get custom fields bitwarden notes Use to get notes bitwarden attachments Use to get attachments remoteRef key ID of a secret which can be found in the URL itemId parameter https myvault com vault type login itemId s property Name of the field to access username for the username of a secret bitwarden login SecretStore password for the password of a secret bitwarden login SecretStore name of the custom field for any custom field bitwarden fields SecretStore id or name of the attachment for any attachment bitwarden attachment SecretStore yaml include bitwarden secret yaml |
external secrets Metrics hide toc If you are using a different monitoring tool that also needs a endpoint you can set the Helm flag to In addition you can also set and to scrape the other components The External Secrets Operator exposes its Prometheus metrics in the path To enable it set the Helm flag to | ---
hide:
- toc
---
# Metrics
The External Secrets Operator exposes its Prometheus metrics in the `/metrics` path. To enable it, set the `serviceMonitor.enabled` Helm flag to `true`.
If you are using a different monitoring tool that also needs a `/metrics` endpoint, you can set the `metrics.service.enabled` Helm flag to `true`. In addition you can also set `webhook.metrics.service.enabled` and `certController.metrics.service.enabled` to scrape the other components.
The Operator has [the controller-runtime metrics inherited from kubebuilder](https://book.kubebuilder.io/reference/metrics-reference.html) plus some custom metrics with a resource name prefix, such as `externalsecret_`.
## Cluster External Secret Metrics
| Name | Type | Description |
|--------------------------------------------|-------|------------------------------------------------------------|
| `clusterexternalsecret_status_condition` | Gauge | The status condition of a specific Cluster External Secret |
| `clusterexternalsecret_reconcile_duration` | Gauge | The duration time to reconcile the Cluster External Secret |
## External Secret Metrics
| Name | Type | Description |
|------------------------------------------------|-----------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| `externalsecret_provider_api_calls_count` | Counter | Number of API calls made to an upstream secret provider API. The metric provides a `provider`, `call` and `status` labels. |
| `externalsecret_sync_calls_total` | Counter | Total number of the External Secret sync calls |
| `externalsecret_sync_calls_error` | Counter | Total number of the External Secret sync errors |
| `externalsecret_status_condition` | Gauge | The status condition of a specific External Secret |
| `externalsecret_reconcile_duration` | Gauge | The duration time to reconcile the External Secret |
## Cluster Secret Store Metrics
| Name | Type | Description |
|-----------------------------------------|-------|---------------------------------------------------------|
| `clustersecretstore_status_condition` | Gauge | The status condition of a specific Cluster Secret Store |
| `clustersecretstore_reconcile_duration` | Gauge | The duration time to reconcile the Cluster Secret Store |
# Secret Store Metrics
| Name | Type | Description |
|----------------------------------|-------|-------------------------------------------------|
| `secretstore_status_condition` | Gauge | The status condition of a specific Secret Store |
| `secretstore_reconcile_duration` | Gauge | The duration time to reconcile the Secret Store |
## Controller Runtime Metrics
See [the kubebuilder documentation](https://book.kubebuilder.io/reference/metrics-reference.html) on the default exported metrics by controller-runtime.
## Dashboard
We provide a [Grafana Dashboard](https://raw.githubusercontent.com/external-secrets/external-secrets/main/docs/snippets/dashboard.json) that gives you an overview of External Secrets Operator:
![ESO Dashboard](../pictures/eso-dashboard-1.png)
![ESO Dashboard](../pictures/eso-dashboard-2.png)
## Service Level Indicators and Alerts
We find the following Service Level Indicators (SLIs) useful when operating ESO. They should give you a good starting point and hints to develop your own Service Level Objectives (SLOs).
#### Webhook HTTP Status Codes
The webhook HTTP status code indicates that a HTTP Request was answered successfully or not.
If the Webhook pod is not able to serve the requests properly then that failure may cascade down to the controller or any other user of `kube-apiserver`.
SLI Example: request error percentage.
```
sum(increase(controller_runtime_webhook_requests_total{service=~"external-secrets.*",code="500"}[1m]))
/
sum(increase(controller_runtime_webhook_requests_total{service=~"external-secrets.*"}[1m]))
```
#### Webhook HTTP Request Latency
If the webhook server is not able to respond in time then that may cause a timeout at the client.
This failure may cascade down to the controller or any other user of `kube-apiserver`.
SLI Example: p99 across all webhook requests.
```
histogram_quantile(0.99,
sum(rate(controller_runtime_webhook_latency_seconds_bucket{service=~"external-secrets.*"}[5m])) by (le)
)
```
#### Controller Workqueue Depth
If the workqueue depth is > 0 for a longer period of time then this is an indicator for the controller not being able to reconcile resources in time. I.e. delivery of secret updates is delayed.
Note: when a controller is restarted, then `queue length = total number of resources`. Make sure to measure the time it takes for the controller to fully reconcile all secrets after a restart. In large clusters this may take a while, make sure to define an acceptable timeframe to fully reconcile all resources.
```
sum(
workqueue_depth{service=~"external-secrets.*"}
) by (name)
```
#### Controller Reconcile Latency
The controller should be able to reconcile resources within a reasonable timeframe. When latency is high secret delivery may impacted.
SLI Example: p99 across all controllers.
```
histogram_quantile(0.99,
sum(rate(controller_runtime_reconcile_time_seconds_bucket{service=~"external-secrets.*"}[5m])) by (le)
)
```
#### Controller Reconcile Error
The controller should be able to reconcile resources without errors. When errors occurr secret delivery may be impacted which could cascade down to the secret consuming applications.
```
sum(increase(
controller_runtime_reconcile_total{service=~"external-secrets.*",controller=~"$controller",result="error"}[1m])
) by (result)
``` | external secrets | hide toc Metrics The External Secrets Operator exposes its Prometheus metrics in the metrics path To enable it set the serviceMonitor enabled Helm flag to true If you are using a different monitoring tool that also needs a metrics endpoint you can set the metrics service enabled Helm flag to true In addition you can also set webhook metrics service enabled and certController metrics service enabled to scrape the other components The Operator has the controller runtime metrics inherited from kubebuilder https book kubebuilder io reference metrics reference html plus some custom metrics with a resource name prefix such as externalsecret Cluster External Secret Metrics Name Type Description clusterexternalsecret status condition Gauge The status condition of a specific Cluster External Secret clusterexternalsecret reconcile duration Gauge The duration time to reconcile the Cluster External Secret External Secret Metrics Name Type Description externalsecret provider api calls count Counter Number of API calls made to an upstream secret provider API The metric provides a provider call and status labels externalsecret sync calls total Counter Total number of the External Secret sync calls externalsecret sync calls error Counter Total number of the External Secret sync errors externalsecret status condition Gauge The status condition of a specific External Secret externalsecret reconcile duration Gauge The duration time to reconcile the External Secret Cluster Secret Store Metrics Name Type Description clustersecretstore status condition Gauge The status condition of a specific Cluster Secret Store clustersecretstore reconcile duration Gauge The duration time to reconcile the Cluster Secret Store Secret Store Metrics Name Type Description secretstore status condition Gauge The status condition of a specific Secret Store secretstore reconcile duration Gauge The duration time to reconcile the Secret Store Controller Runtime Metrics See the kubebuilder documentation https book kubebuilder io reference metrics reference html on the default exported metrics by controller runtime Dashboard We provide a Grafana Dashboard https raw githubusercontent com external secrets external secrets main docs snippets dashboard json that gives you an overview of External Secrets Operator ESO Dashboard pictures eso dashboard 1 png ESO Dashboard pictures eso dashboard 2 png Service Level Indicators and Alerts We find the following Service Level Indicators SLIs useful when operating ESO They should give you a good starting point and hints to develop your own Service Level Objectives SLOs Webhook HTTP Status Codes The webhook HTTP status code indicates that a HTTP Request was answered successfully or not If the Webhook pod is not able to serve the requests properly then that failure may cascade down to the controller or any other user of kube apiserver SLI Example request error percentage sum increase controller runtime webhook requests total service external secrets code 500 1m sum increase controller runtime webhook requests total service external secrets 1m Webhook HTTP Request Latency If the webhook server is not able to respond in time then that may cause a timeout at the client This failure may cascade down to the controller or any other user of kube apiserver SLI Example p99 across all webhook requests histogram quantile 0 99 sum rate controller runtime webhook latency seconds bucket service external secrets 5m by le Controller Workqueue Depth If the workqueue depth is 0 for a longer period of time then this is an indicator for the controller not being able to reconcile resources in time I e delivery of secret updates is delayed Note when a controller is restarted then queue length total number of resources Make sure to measure the time it takes for the controller to fully reconcile all secrets after a restart In large clusters this may take a while make sure to define an acceptable timeframe to fully reconcile all resources sum workqueue depth service external secrets by name Controller Reconcile Latency The controller should be able to reconcile resources within a reasonable timeframe When latency is high secret delivery may impacted SLI Example p99 across all controllers histogram quantile 0 99 sum rate controller runtime reconcile time seconds bucket service external secrets 5m by le Controller Reconcile Error The controller should be able to reconcile resources without errors When errors occurr secret delivery may be impacted which could cascade down to the secret consuming applications sum increase controller runtime reconcile total service external secrets controller controller result error 1m by result |
external secrets a href external secrets io 2fv1beta1 external secrets io v1beta1 a p p Package v1beta1 contains resources for external secrets p p Packages p h2 id external secrets io v1beta1 external secrets io v1beta1 h2 ul li | <p>Packages:</p>
<ul>
<li>
<a href="#external-secrets.io%2fv1beta1">external-secrets.io/v1beta1</a>
</li>
</ul>
<h2 id="external-secrets.io/v1beta1">external-secrets.io/v1beta1</h2>
<p>
<p>Package v1beta1 contains resources for external-secrets</p>
</p>
Resource Types:
<ul></ul>
<h3 id="external-secrets.io/v1beta1.AWSAuth">AWSAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AWSProvider">AWSProvider</a>)
</p>
<p>
<p>AWSAuth tells the controller how to do authentication with aws.
Only one of secretRef or jwt can be specified.
if none is specified the controller will load credentials using the aws sdk defaults.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AWSAuthSecretRef">
AWSAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>jwt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AWSJWTAuth">
AWSJWTAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AWSAuthSecretRef">AWSAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AWSAuth">AWSAuth</a>)
</p>
<p>
<p>AWSAuthSecretRef holds secret references for AWS credentials
both AccessKeyID and SecretAccessKey must be defined in order to properly authenticate.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessKeyIDSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The AccessKeyID is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>secretAccessKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SecretAccessKey is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>sessionTokenSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SessionToken used for authentication
This must be defined if AccessKeyID and SecretAccessKey are temporary credentials
see: <a href="https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_use-resources.html">https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_use-resources.html</a></p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AWSJWTAuth">AWSJWTAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AWSAuth">AWSAuth</a>)
</p>
<p>
<p>Authenticate against AWS using service account tokens.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AWSProvider">AWSProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>AWSProvider configures a store to sync secrets with AWS.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>service</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AWSServiceType">
AWSServiceType
</a>
</em>
</td>
<td>
<p>Service defines which service should be used to fetch the secrets</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AWSAuth">
AWSAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth defines the information necessary to authenticate against AWS
if not set aws sdk will infer credentials from your environment
see: <a href="https://docs.aws.amazon.com/sdk-for-go/v1/developer-guide/configuring-sdk.html#specifying-credentials">https://docs.aws.amazon.com/sdk-for-go/v1/developer-guide/configuring-sdk.html#specifying-credentials</a></p>
</td>
</tr>
<tr>
<td>
<code>role</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Role is a Role ARN which the provider will assume</p>
</td>
</tr>
<tr>
<td>
<code>region</code></br>
<em>
string
</em>
</td>
<td>
<p>AWS Region to be used for the provider</p>
</td>
</tr>
<tr>
<td>
<code>additionalRoles</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>AdditionalRoles is a chained list of Role ARNs which the provider will sequentially assume before assuming the Role</p>
</td>
</tr>
<tr>
<td>
<code>externalID</code></br>
<em>
string
</em>
</td>
<td>
<p>AWS External ID set on assumed IAM roles</p>
</td>
</tr>
<tr>
<td>
<code>sessionTags</code></br>
<em>
<a href="#external-secrets.io/v1beta1.*github.com/external-secrets/external-secrets/apis/externalsecrets/v1beta1.Tag">
[]*github.com/external-secrets/external-secrets/apis/externalsecrets/v1beta1.Tag
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>AWS STS assume role session tags</p>
</td>
</tr>
<tr>
<td>
<code>secretsManager</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretsManager">
SecretsManager
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretsManager defines how the provider behaves when interacting with AWS SecretsManager</p>
</td>
</tr>
<tr>
<td>
<code>transitiveTagKeys</code></br>
<em>
[]*string
</em>
</td>
<td>
<em>(Optional)</em>
<p>AWS STS assume role transitive session tags. Required when multiple rules are used with the provider</p>
</td>
</tr>
<tr>
<td>
<code>prefix</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Prefix adds a prefix to all retrieved values.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AWSServiceType">AWSServiceType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AWSProvider">AWSProvider</a>)
</p>
<p>
<p>AWSServiceType is a enum that defines the service/API that is used to fetch the secrets.</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ParameterStore"</p></td>
<td><p>AWSServiceParameterStore is the AWS SystemsManager ParameterStore service.
see: <a href="https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-parameter-store.html">https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-parameter-store.html</a></p>
</td>
</tr><tr><td><p>"SecretsManager"</p></td>
<td><p>AWSServiceSecretsManager is the AWS SecretsManager service.
see: <a href="https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html">https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html</a></p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AkeylessAuth">AkeylessAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AkeylessProvider">AkeylessProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AkeylessAuthSecretRef">
AkeylessAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Reference to a Secret that contains the details
to authenticate with Akeyless.</p>
</td>
</tr>
<tr>
<td>
<code>kubernetesAuth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AkeylessKubernetesAuth">
AkeylessKubernetesAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Kubernetes authenticates with Akeyless by passing the ServiceAccount
token stored in the named Secret resource.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AkeylessAuthSecretRef">AkeylessAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AkeylessAuth">AkeylessAuth</a>)
</p>
<p>
<p>AkeylessAuthSecretRef
AKEYLESS_ACCESS_TYPE_PARAM: AZURE_OBJ_ID OR GCP_AUDIENCE OR ACCESS_KEY OR KUB_CONFIG_NAME.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessID</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SecretAccessID is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>accessType</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>accessTypeParam</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AkeylessKubernetesAuth">AkeylessKubernetesAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AkeylessAuth">AkeylessAuth</a>)
</p>
<p>
<p>Authenticate with Kubernetes ServiceAccount token stored.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessID</code></br>
<em>
string
</em>
</td>
<td>
<p>the Akeyless Kubernetes auth-method access-id</p>
</td>
</tr>
<tr>
<td>
<code>k8sConfName</code></br>
<em>
string
</em>
</td>
<td>
<p>Kubernetes-auth configuration name in Akeyless-Gateway</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional service account field containing the name of a kubernetes ServiceAccount.
If the service account is specified, the service account secret token JWT will be used
for authenticating with Akeyless. If the service account selector is not supplied,
the secretRef will be used instead.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional secret field containing a Kubernetes ServiceAccount JWT used
for authenticating with Akeyless. If a name is specified without a key,
<code>token</code> is the default. If one is not specified, the one bound to
the controller will be used.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AkeylessProvider">AkeylessProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>AkeylessProvider Configures an store to sync secrets using Akeyless KV.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>akeylessGWApiURL</code></br>
<em>
string
</em>
</td>
<td>
<p>Akeyless GW API Url from which the secrets to be fetched from.</p>
</td>
</tr>
<tr>
<td>
<code>authSecretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AkeylessAuth">
AkeylessAuth
</a>
</em>
</td>
<td>
<p>Auth configures how the operator authenticates with Akeyless.</p>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
[]byte
</em>
</td>
<td>
<em>(Optional)</em>
<p>PEM/base64 encoded CA bundle used to validate Akeyless Gateway certificate. Only used
if the AkeylessGWApiURL URL is using HTTPS protocol. If not set the system root certificates
are used to validate the TLS connection.</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProvider">
CAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The provider for the CA bundle to use to validate Akeyless Gateway certificate.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AlibabaAuth">AlibabaAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AlibabaProvider">AlibabaProvider</a>)
</p>
<p>
<p>AlibabaAuth contains a secretRef for credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AlibabaAuthSecretRef">
AlibabaAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>rrsa</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AlibabaRRSAAuth">
AlibabaRRSAAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AlibabaAuthSecretRef">AlibabaAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AlibabaAuth">AlibabaAuth</a>)
</p>
<p>
<p>AlibabaAuthSecretRef holds secret references for Alibaba credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessKeyIDSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The AccessKeyID is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>accessKeySecretSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The AccessKeySecret is used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AlibabaProvider">AlibabaProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>AlibabaProvider configures a store to sync secrets using the Alibaba Secret Manager provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AlibabaAuth">
AlibabaAuth
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>regionID</code></br>
<em>
string
</em>
</td>
<td>
<p>Alibaba Region to be used for the provider</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AlibabaRRSAAuth">AlibabaRRSAAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AlibabaAuth">AlibabaAuth</a>)
</p>
<p>
<p>Authenticate against Alibaba using RRSA.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>oidcProviderArn</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>oidcTokenFilePath</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>roleArn</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>sessionName</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AzureAuthType">AzureAuthType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AzureKVProvider">AzureKVProvider</a>)
</p>
<p>
<p>AuthType describes how to authenticate to the Azure Keyvault
Only one of the following auth types may be specified.
If none of the following auth type is specified, the default one
is ServicePrincipal.</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ManagedIdentity"</p></td>
<td><p>Using Managed Identity to authenticate. Used with aad-pod-identity installed in the cluster.</p>
</td>
</tr><tr><td><p>"ServicePrincipal"</p></td>
<td><p>Using service principal to authenticate, which needs a tenantId, a clientId and a clientSecret.</p>
</td>
</tr><tr><td><p>"WorkloadIdentity"</p></td>
<td><p>Using Workload Identity service accounts to authenticate.</p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AzureEnvironmentType">AzureEnvironmentType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AzureKVProvider">AzureKVProvider</a>)
</p>
<p>
<p>AzureEnvironmentType specifies the Azure cloud environment endpoints to use for
connecting and authenticating with Azure. By default it points to the public cloud AAD endpoint.
The following endpoints are available, also see here: <a href="https://github.com/Azure/go-autorest/blob/main/autorest/azure/environments.go#L152">https://github.com/Azure/go-autorest/blob/main/autorest/azure/environments.go#L152</a>
PublicCloud, USGovernmentCloud, ChinaCloud, GermanCloud</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ChinaCloud"</p></td>
<td></td>
</tr><tr><td><p>"GermanCloud"</p></td>
<td></td>
</tr><tr><td><p>"PublicCloud"</p></td>
<td></td>
</tr><tr><td><p>"USGovernmentCloud"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AzureKVAuth">AzureKVAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AzureKVProvider">AzureKVProvider</a>)
</p>
<p>
<p>Configuration used to authenticate with Azure.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientId</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The Azure clientId of the service principle or managed identity used for authentication.</p>
</td>
</tr>
<tr>
<td>
<code>tenantId</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The Azure tenantId of the managed identity used for authentication.</p>
</td>
</tr>
<tr>
<td>
<code>clientSecret</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The Azure ClientSecret of the service principle used for authentication.</p>
</td>
</tr>
<tr>
<td>
<code>clientCertificate</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The Azure ClientCertificate of the service principle used for authentication.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.AzureKVProvider">AzureKVProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures an store to sync secrets using Azure KV.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>authType</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AzureAuthType">
AzureAuthType
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth type defines how to authenticate to the keyvault service.
Valid values are:
- “ServicePrincipal” (default): Using a service principal (tenantId, clientId, clientSecret)
- “ManagedIdentity”: Using Managed Identity assigned to the pod (see aad-pod-identity)</p>
</td>
</tr>
<tr>
<td>
<code>vaultUrl</code></br>
<em>
string
</em>
</td>
<td>
<p>Vault Url from which the secrets to be fetched from.</p>
</td>
</tr>
<tr>
<td>
<code>tenantId</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>TenantID configures the Azure Tenant to send requests to. Required for ServicePrincipal auth type. Optional for WorkloadIdentity.</p>
</td>
</tr>
<tr>
<td>
<code>environmentType</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AzureEnvironmentType">
AzureEnvironmentType
</a>
</em>
</td>
<td>
<p>EnvironmentType specifies the Azure cloud environment endpoints to use for
connecting and authenticating with Azure. By default it points to the public cloud AAD endpoint.
The following endpoints are available, also see here: <a href="https://github.com/Azure/go-autorest/blob/main/autorest/azure/environments.go#L152">https://github.com/Azure/go-autorest/blob/main/autorest/azure/environments.go#L152</a>
PublicCloud, USGovernmentCloud, ChinaCloud, GermanCloud</p>
</td>
</tr>
<tr>
<td>
<code>authSecretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AzureKVAuth">
AzureKVAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth configures how the operator authenticates with Azure. Required for ServicePrincipal auth type. Optional for WorkloadIdentity.</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>ServiceAccountRef specified the service account
that should be used when authenticating with WorkloadIdentity.</p>
</td>
</tr>
<tr>
<td>
<code>identityId</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>If multiple Managed Identity is assigned to the pod, you can select the one to be used</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">BeyondTrustProviderSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.BeyondtrustAuth">BeyondtrustAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Value can be specified directly to set a value without using a secret.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretRef references a key in a secret that will be used as value.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BeyondtrustAuth">BeyondtrustAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.BeyondtrustProvider">BeyondtrustProvider</a>)
</p>
<p>
<p>Configures a store to sync secrets using BeyondTrust Password Safe.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiKey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">
BeyondTrustProviderSecretRef
</a>
</em>
</td>
<td>
<p>APIKey If not provided then ClientID/ClientSecret become required.</p>
</td>
</tr>
<tr>
<td>
<code>clientId</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">
BeyondTrustProviderSecretRef
</a>
</em>
</td>
<td>
<p>ClientID is the API OAuth Client ID.</p>
</td>
</tr>
<tr>
<td>
<code>clientSecret</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">
BeyondTrustProviderSecretRef
</a>
</em>
</td>
<td>
<p>ClientSecret is the API OAuth Client Secret.</p>
</td>
</tr>
<tr>
<td>
<code>certificate</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">
BeyondTrustProviderSecretRef
</a>
</em>
</td>
<td>
<p>Certificate (cert.pem) for use when authenticating with an OAuth client Id using a Client Certificate.</p>
</td>
</tr>
<tr>
<td>
<code>certificateKey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondTrustProviderSecretRef">
BeyondTrustProviderSecretRef
</a>
</em>
</td>
<td>
<p>Certificate private key (key.pem). For use when authenticating with an OAuth client Id</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BeyondtrustProvider">BeyondtrustProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondtrustAuth">
BeyondtrustAuth
</a>
</em>
</td>
<td>
<p>Auth configures how the operator authenticates with Beyondtrust.</p>
</td>
</tr>
<tr>
<td>
<code>server</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondtrustServer">
BeyondtrustServer
</a>
</em>
</td>
<td>
<p>Auth configures how API server works.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BeyondtrustServer">BeyondtrustServer
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.BeyondtrustProvider">BeyondtrustProvider</a>)
</p>
<p>
<p>Configures a store to sync secrets using BeyondTrust Password Safe.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiUrl</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>retrievalType</code></br>
<em>
string
</em>
</td>
<td>
<p>The secret retrieval type. SECRET = Secrets Safe (credential, text, file). MANAGED_ACCOUNT = Password Safe account associated with a system.</p>
</td>
</tr>
<tr>
<td>
<code>separator</code></br>
<em>
string
</em>
</td>
<td>
<p>A character that separates the folder names.</p>
</td>
</tr>
<tr>
<td>
<code>verifyCA</code></br>
<em>
bool
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clientTimeOutSeconds</code></br>
<em>
int
</em>
</td>
<td>
<p>Timeout specifies a time limit for requests made by this Client. The timeout includes connection time, any redirects, and reading the response body. Defaults to 45 seconds.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BitwardenSecretsManagerAuth">BitwardenSecretsManagerAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerProvider">BitwardenSecretsManagerProvider</a>)
</p>
<p>
<p>BitwardenSecretsManagerAuth contains the ref to the secret that contains the machine account token.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerSecretRef">
BitwardenSecretsManagerSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BitwardenSecretsManagerProvider">BitwardenSecretsManagerProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>BitwardenSecretsManagerProvider configures a store to sync secrets with a Bitwarden Secrets Manager instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiURL</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>identityURL</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>bitwardenServerSDKURL</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Base64 encoded certificate for the bitwarden server sdk. The sdk MUST run with HTTPS to make sure no MITM attack
can be performed.</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProvider">
CAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>see: <a href="https://external-secrets.io/latest/spec/#external-secrets.io/v1alpha1.CAProvider">https://external-secrets.io/latest/spec/#external-secrets.io/v1alpha1.CAProvider</a></p>
</td>
</tr>
<tr>
<td>
<code>organizationID</code></br>
<em>
string
</em>
</td>
<td>
<p>OrganizationID determines which organization this secret store manages.</p>
</td>
</tr>
<tr>
<td>
<code>projectID</code></br>
<em>
string
</em>
</td>
<td>
<p>ProjectID determines which project this secret store manages.</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerAuth">
BitwardenSecretsManagerAuth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with a bitwarden machine account instance.
Make sure that the token being used has permissions on the given secret.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.BitwardenSecretsManagerSecretRef">BitwardenSecretsManagerSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerAuth">BitwardenSecretsManagerAuth</a>)
</p>
<p>
<p>BitwardenSecretsManagerSecretRef contains the credential ref to the bitwarden instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>credentials</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>AccessToken used for the bitwarden instance.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.CAProvider">CAProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AkeylessProvider">AkeylessProvider</a>,
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerProvider">BitwardenSecretsManagerProvider</a>,
<a href="#external-secrets.io/v1beta1.ConjurProvider">ConjurProvider</a>,
<a href="#external-secrets.io/v1beta1.KubernetesServer">KubernetesServer</a>,
<a href="#external-secrets.io/v1beta1.VaultProvider">VaultProvider</a>)
</p>
<p>
<p>Used to provide custom certificate authority (CA) certificates
for a secret store. The CAProvider points to a Secret or ConfigMap resource
that contains a PEM-encoded certificate.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProviderType">
CAProviderType
</a>
</em>
</td>
<td>
<p>The type of provider to use such as “Secret”, or “ConfigMap”.</p>
</td>
</tr>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>The name of the object located at the provider type.</p>
</td>
</tr>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
<p>The key where the CA certificate can be found in the Secret or ConfigMap.</p>
</td>
</tr>
<tr>
<td>
<code>namespace</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>The namespace the Provider type is in.
Can only be defined when used in a ClusterSecretStore.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.CAProviderType">CAProviderType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.CAProvider">CAProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ConfigMap"</p></td>
<td></td>
</tr><tr><td><p>"Secret"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.CertAuth">CertAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.KubernetesAuth">KubernetesAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientCert</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clientKey</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ChefAuth">ChefAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ChefProvider">ChefProvider</a>)
</p>
<p>
<p>ChefAuth contains a secretRef for credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ChefAuthSecretRef">
ChefAuthSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ChefAuthSecretRef">ChefAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ChefAuth">ChefAuth</a>)
</p>
<p>
<p>ChefAuthSecretRef holds secret references for chef server login credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>privateKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretKey is the Signing Key in PEM format, used for authentication.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ChefProvider">ChefProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>ChefProvider configures a store to sync secrets using basic chef server connection credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ChefAuth">
ChefAuth
</a>
</em>
</td>
<td>
<p>Auth defines the information necessary to authenticate against chef Server</p>
</td>
</tr>
<tr>
<td>
<code>username</code></br>
<em>
string
</em>
</td>
<td>
<p>UserName should be the user ID on the chef server</p>
</td>
</tr>
<tr>
<td>
<code>serverUrl</code></br>
<em>
string
</em>
</td>
<td>
<p>ServerURL is the chef server URL used to connect to. If using orgs you should include your org in the url and terminate the url with a “/”</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecret">ClusterExternalSecret
</h3>
<p>
<p>ClusterExternalSecret is the Schema for the clusterexternalsecrets API.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>metadata</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#objectmeta-v1-meta">
Kubernetes meta/v1.ObjectMeta
</a>
</em>
</td>
<td>
Refer to the Kubernetes API documentation for the fields of the
<code>metadata</code> field.
</td>
</tr>
<tr>
<td>
<code>spec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretSpec">
ClusterExternalSecretSpec
</a>
</em>
</td>
<td>
<br/>
<br/>
<table>
<tr>
<td>
<code>externalSecretSpec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">
ExternalSecretSpec
</a>
</em>
</td>
<td>
<p>The spec for the ExternalSecrets to be created</p>
</td>
</tr>
<tr>
<td>
<code>externalSecretName</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>The name of the external secrets to be created.
Defaults to the name of the ClusterExternalSecret</p>
</td>
</tr>
<tr>
<td>
<code>externalSecretMetadata</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretMetadata">
ExternalSecretMetadata
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The metadata of the external secrets to be created</p>
</td>
</tr>
<tr>
<td>
<code>namespaceSelector</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#labelselector-v1-meta">
Kubernetes meta/v1.LabelSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The labels to select by to find the Namespaces to create the ExternalSecrets in.
Deprecated: Use NamespaceSelectors instead.</p>
</td>
</tr>
<tr>
<td>
<code>namespaceSelectors</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#*k8s.io/apimachinery/pkg/apis/meta/v1.labelselector--">
[]*k8s.io/apimachinery/pkg/apis/meta/v1.LabelSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>A list of labels to select by to find the Namespaces to create the ExternalSecrets in. The selectors are ORed.</p>
</td>
</tr>
<tr>
<td>
<code>namespaces</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Choose namespaces by name. This field is ORed with anything that NamespaceSelectors ends up choosing.</p>
</td>
</tr>
<tr>
<td>
<code>refreshTime</code></br>
<em>
<a href="https://pkg.go.dev/k8s.io/apimachinery/pkg/apis/meta/v1#Duration">
Kubernetes meta/v1.Duration
</a>
</em>
</td>
<td>
<p>The time in which the controller should reconcile its objects and recheck namespaces for labels.</p>
</td>
</tr>
</table>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretStatus">
ClusterExternalSecretStatus
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecretConditionType">ClusterExternalSecretConditionType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretStatusCondition">ClusterExternalSecretStatusCondition</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Ready"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecretNamespaceFailure">ClusterExternalSecretNamespaceFailure
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretStatus">ClusterExternalSecretStatus</a>)
</p>
<p>
<p>ClusterExternalSecretNamespaceFailure represents a failed namespace deployment and it’s reason.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>namespace</code></br>
<em>
string
</em>
</td>
<td>
<p>Namespace is the namespace that failed when trying to apply an ExternalSecret</p>
</td>
</tr>
<tr>
<td>
<code>reason</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Reason is why the ExternalSecret failed to apply to the namespace</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecretSpec">ClusterExternalSecretSpec
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecret">ClusterExternalSecret</a>)
</p>
<p>
<p>ClusterExternalSecretSpec defines the desired state of ClusterExternalSecret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>externalSecretSpec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">
ExternalSecretSpec
</a>
</em>
</td>
<td>
<p>The spec for the ExternalSecrets to be created</p>
</td>
</tr>
<tr>
<td>
<code>externalSecretName</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>The name of the external secrets to be created.
Defaults to the name of the ClusterExternalSecret</p>
</td>
</tr>
<tr>
<td>
<code>externalSecretMetadata</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretMetadata">
ExternalSecretMetadata
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The metadata of the external secrets to be created</p>
</td>
</tr>
<tr>
<td>
<code>namespaceSelector</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#labelselector-v1-meta">
Kubernetes meta/v1.LabelSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The labels to select by to find the Namespaces to create the ExternalSecrets in.
Deprecated: Use NamespaceSelectors instead.</p>
</td>
</tr>
<tr>
<td>
<code>namespaceSelectors</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#*k8s.io/apimachinery/pkg/apis/meta/v1.labelselector--">
[]*k8s.io/apimachinery/pkg/apis/meta/v1.LabelSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>A list of labels to select by to find the Namespaces to create the ExternalSecrets in. The selectors are ORed.</p>
</td>
</tr>
<tr>
<td>
<code>namespaces</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Choose namespaces by name. This field is ORed with anything that NamespaceSelectors ends up choosing.</p>
</td>
</tr>
<tr>
<td>
<code>refreshTime</code></br>
<em>
<a href="https://pkg.go.dev/k8s.io/apimachinery/pkg/apis/meta/v1#Duration">
Kubernetes meta/v1.Duration
</a>
</em>
</td>
<td>
<p>The time in which the controller should reconcile its objects and recheck namespaces for labels.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecretStatus">ClusterExternalSecretStatus
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecret">ClusterExternalSecret</a>)
</p>
<p>
<p>ClusterExternalSecretStatus defines the observed state of ClusterExternalSecret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>externalSecretName</code></br>
<em>
string
</em>
</td>
<td>
<p>ExternalSecretName is the name of the ExternalSecrets created by the ClusterExternalSecret</p>
</td>
</tr>
<tr>
<td>
<code>failedNamespaces</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretNamespaceFailure">
[]ClusterExternalSecretNamespaceFailure
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Failed namespaces are the namespaces that failed to apply an ExternalSecret</p>
</td>
</tr>
<tr>
<td>
<code>provisionedNamespaces</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>ProvisionedNamespaces are the namespaces where the ClusterExternalSecret has secrets</p>
</td>
</tr>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretStatusCondition">
[]ClusterExternalSecretStatusCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterExternalSecretStatusCondition">ClusterExternalSecretStatusCondition
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretStatus">ClusterExternalSecretStatus</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretConditionType">
ClusterExternalSecretConditionType
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#conditionstatus-v1-core">
Kubernetes core/v1.ConditionStatus
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>message</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterSecretStore">ClusterSecretStore
</h3>
<p>
<p>ClusterSecretStore represents a secure external location for storing secrets, which can be referenced as part of <code>storeRef</code> fields.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>metadata</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#objectmeta-v1-meta">
Kubernetes meta/v1.ObjectMeta
</a>
</em>
</td>
<td>
Refer to the Kubernetes API documentation for the fields of the
<code>metadata</code> field.
</td>
</tr>
<tr>
<td>
<code>spec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreSpec">
SecretStoreSpec
</a>
</em>
</td>
<td>
<br/>
<br/>
<table>
<tr>
<td>
<code>controller</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to select the correct ESO controller (think: ingress.ingressClassName)
The ESO controller is instantiated with a specific controller name and filters ES based on this property</p>
</td>
</tr>
<tr>
<td>
<code>provider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">
SecretStoreProvider
</a>
</em>
</td>
<td>
<p>Used to configure the provider. Only one provider may be set</p>
</td>
</tr>
<tr>
<td>
<code>retrySettings</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRetrySettings">
SecretStoreRetrySettings
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure http retries if failed</p>
</td>
</tr>
<tr>
<td>
<code>refreshInterval</code></br>
<em>
int
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure store refresh interval in seconds. Empty or 0 will default to the controller config.</p>
</td>
</tr>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterSecretStoreCondition">
[]ClusterSecretStoreCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to constraint a ClusterSecretStore to specific namespaces. Relevant only to ClusterSecretStore</p>
</td>
</tr>
</table>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatus">
SecretStoreStatus
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ClusterSecretStoreCondition">ClusterSecretStoreCondition
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreSpec">SecretStoreSpec</a>)
</p>
<p>
<p>ClusterSecretStoreCondition describes a condition by which to choose namespaces to process ExternalSecrets in
for a ClusterSecretStore instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>namespaceSelector</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#labelselector-v1-meta">
Kubernetes meta/v1.LabelSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Choose namespace using a labelSelector</p>
</td>
</tr>
<tr>
<td>
<code>namespaces</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Choose namespaces by name</p>
</td>
</tr>
<tr>
<td>
<code>namespaceRegexes</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Choose namespaces by using regex matching</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ConjurAPIKey">ConjurAPIKey
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ConjurAuth">ConjurAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>account</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>userRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>apiKeyRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ConjurAuth">ConjurAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ConjurProvider">ConjurProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apikey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ConjurAPIKey">
ConjurAPIKey
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>jwt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ConjurJWT">
ConjurJWT
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ConjurJWT">ConjurJWT
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ConjurAuth">ConjurAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>account</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>serviceID</code></br>
<em>
string
</em>
</td>
<td>
<p>The conjur authn jwt webservice id</p>
</td>
</tr>
<tr>
<td>
<code>hostId</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional HostID for JWT authentication. This may be used depending
on how the Conjur JWT authenticator policy is configured.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional SecretRef that refers to a key in a Secret resource containing JWT token to
authenticate with Conjur using the JWT authentication method.</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional ServiceAccountRef specifies the Kubernetes service account for which to request
a token for with the <code>TokenRequest</code> API.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ConjurProvider">ConjurProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>url</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProvider">
CAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ConjurAuth">
ConjurAuth
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.DelineaProvider">DelineaProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>See <a href="https://github.com/DelineaXPM/dsv-sdk-go/blob/main/vault/vault.go">https://github.com/DelineaXPM/dsv-sdk-go/blob/main/vault/vault.go</a>.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientId</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DelineaProviderSecretRef">
DelineaProviderSecretRef
</a>
</em>
</td>
<td>
<p>ClientID is the non-secret part of the credential.</p>
</td>
</tr>
<tr>
<td>
<code>clientSecret</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DelineaProviderSecretRef">
DelineaProviderSecretRef
</a>
</em>
</td>
<td>
<p>ClientSecret is the secret part of the credential.</p>
</td>
</tr>
<tr>
<td>
<code>tenant</code></br>
<em>
string
</em>
</td>
<td>
<p>Tenant is the chosen hostname / site name.</p>
</td>
</tr>
<tr>
<td>
<code>urlTemplate</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>URLTemplate
If unset, defaults to “https://%s.secretsvaultcloud.%s/v1/%s%s”.</p>
</td>
</tr>
<tr>
<td>
<code>tld</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>TLD is based on the server location that was chosen during provisioning.
If unset, defaults to “com”.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.DelineaProviderSecretRef">DelineaProviderSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.DelineaProvider">DelineaProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Value can be specified directly to set a value without using a secret.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretRef references a key in a secret that will be used as value.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.Device42Auth">Device42Auth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.Device42Provider">Device42Provider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.Device42SecretRef">
Device42SecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.Device42Provider">Device42Provider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Device42Provider configures a store to sync secrets with a Device42 instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>host</code></br>
<em>
string
</em>
</td>
<td>
<p>URL configures the Device42 instance URL.</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.Device42Auth">
Device42Auth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with a Device42 instance.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.Device42SecretRef">Device42SecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.Device42Auth">Device42Auth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>credentials</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Username / Password is used for authentication.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.DopplerAuth">DopplerAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.DopplerProvider">DopplerProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DopplerAuthSecretRef">
DopplerAuthSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.DopplerAuthSecretRef">DopplerAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.DopplerAuth">DopplerAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>dopplerToken</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The DopplerToken is used for authentication.
See <a href="https://docs.doppler.com/reference/api#authentication">https://docs.doppler.com/reference/api#authentication</a> for auth token types.
The Key attribute defaults to dopplerToken if not specified.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.DopplerProvider">DopplerProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>DopplerProvider configures a store to sync secrets using the Doppler provider.
Project and Config are required if not using a Service Token.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DopplerAuth">
DopplerAuth
</a>
</em>
</td>
<td>
<p>Auth configures how the Operator authenticates with the Doppler API</p>
</td>
</tr>
<tr>
<td>
<code>project</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Doppler project (required if not using a Service Token)</p>
</td>
</tr>
<tr>
<td>
<code>config</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Doppler config (required if not using a Service Token)</p>
</td>
</tr>
<tr>
<td>
<code>nameTransformer</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Environment variable compatible name transforms that change secret names to a different format</p>
</td>
</tr>
<tr>
<td>
<code>format</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Format enables the downloading of secrets as a file (string)</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecret">ExternalSecret
</h3>
<p>
<p>ExternalSecret is the Schema for the external-secrets API.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>metadata</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#objectmeta-v1-meta">
Kubernetes meta/v1.ObjectMeta
</a>
</em>
</td>
<td>
Refer to the Kubernetes API documentation for the fields of the
<code>metadata</code> field.
</td>
</tr>
<tr>
<td>
<code>spec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">
ExternalSecretSpec
</a>
</em>
</td>
<td>
<br/>
<br/>
<table>
<tr>
<td>
<code>secretStoreRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRef">
SecretStoreRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>target</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTarget">
ExternalSecretTarget
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>refreshInterval</code></br>
<em>
<a href="https://pkg.go.dev/k8s.io/apimachinery/pkg/apis/meta/v1#Duration">
Kubernetes meta/v1.Duration
</a>
</em>
</td>
<td>
<p>RefreshInterval is the amount of time before the values are read again from the SecretStore provider,
specified as Golang Duration strings.
Valid time units are “ns”, “us” (or “µs”), “ms”, “s”, “m”, “h”
Example values: “1h”, “2h30m”, “5d”, “10s”
May be set to zero to fetch and create it once. Defaults to 1h.</p>
</td>
</tr>
<tr>
<td>
<code>data</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretData">
[]ExternalSecretData
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Data defines the connection between the Kubernetes Secret keys and the Provider data</p>
</td>
</tr>
<tr>
<td>
<code>dataFrom</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">
[]ExternalSecretDataFromRemoteRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>DataFrom is used to fetch all properties from a specific Provider data
If multiple entries are specified, the Secret keys are merged in the specified order</p>
</td>
</tr>
</table>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretStatus">
ExternalSecretStatus
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretConditionType">ExternalSecretConditionType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretStatusCondition">ExternalSecretStatusCondition</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Deleted"</p></td>
<td></td>
</tr><tr><td><p>"Ready"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretConversionStrategy">ExternalSecretConversionStrategy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">ExternalSecretDataRemoteRef</a>,
<a href="#external-secrets.io/v1beta1.ExternalSecretFind">ExternalSecretFind</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Default"</p></td>
<td></td>
</tr><tr><td><p>"Unicode"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretCreationPolicy">ExternalSecretCreationPolicy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTarget">ExternalSecretTarget</a>)
</p>
<p>
<p>ExternalSecretCreationPolicy defines rules on how to create the resulting Secret.</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Merge"</p></td>
<td><p>Merge does not create the Secret, but merges the data fields to the Secret.</p>
</td>
</tr><tr><td><p>"None"</p></td>
<td><p>None does not create a Secret (future use with injector).</p>
</td>
</tr><tr><td><p>"Orphan"</p></td>
<td><p>Orphan creates the Secret and does not set the ownerReference.
I.e. it will be orphaned after the deletion of the ExternalSecret.</p>
</td>
</tr><tr><td><p>"Owner"</p></td>
<td><p>Owner creates the Secret and sets .metadata.ownerReferences to the ExternalSecret resource.</p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretData">ExternalSecretData
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">ExternalSecretSpec</a>)
</p>
<p>
<p>ExternalSecretData defines the connection between the Kubernetes Secret key (spec.data.<key>) and the Provider data.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretKey</code></br>
<em>
string
</em>
</td>
<td>
<p>The key in the Kubernetes Secret to store the value.</p>
</td>
</tr>
<tr>
<td>
<code>remoteRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">
ExternalSecretDataRemoteRef
</a>
</em>
</td>
<td>
<p>RemoteRef points to the remote secret and defines
which secret (version/property/..) to fetch.</p>
</td>
</tr>
<tr>
<td>
<code>sourceRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.StoreSourceRef">
StoreSourceRef
</a>
</em>
</td>
<td>
<p>SourceRef allows you to override the source
from which the value will be pulled.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">ExternalSecretDataFromRemoteRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">ExternalSecretSpec</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>extract</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">
ExternalSecretDataRemoteRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to extract multiple key/value pairs from one secret
Note: Extract does not support sourceRef.Generator or sourceRef.GeneratorRef.</p>
</td>
</tr>
<tr>
<td>
<code>find</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretFind">
ExternalSecretFind
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to find secrets based on tags or regular expressions
Note: Find does not support sourceRef.Generator or sourceRef.GeneratorRef.</p>
</td>
</tr>
<tr>
<td>
<code>rewrite</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretRewrite">
[]ExternalSecretRewrite
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to rewrite secret Keys after getting them from the secret Provider
Multiple Rewrite operations can be provided. They are applied in a layered order (first to last)</p>
</td>
</tr>
<tr>
<td>
<code>sourceRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.StoreGeneratorSourceRef">
StoreGeneratorSourceRef
</a>
</em>
</td>
<td>
<p>SourceRef points to a store or generator
which contains secret values ready to use.
Use this in combination with Extract or Find pull values out of
a specific SecretStore.
When sourceRef points to a generator Extract or Find is not supported.
The generator returns a static map of values</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">ExternalSecretDataRemoteRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretData">ExternalSecretData</a>,
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">ExternalSecretDataFromRemoteRef</a>)
</p>
<p>
<p>ExternalSecretDataRemoteRef defines Provider data location.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
<p>Key is the key used in the Provider, mandatory</p>
</td>
</tr>
<tr>
<td>
<code>metadataPolicy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretMetadataPolicy">
ExternalSecretMetadataPolicy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Policy for fetching tags/labels from provider secrets, possible options are Fetch, None. Defaults to None</p>
</td>
</tr>
<tr>
<td>
<code>property</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to select a specific property of the Provider value (if a map), if supported</p>
</td>
</tr>
<tr>
<td>
<code>version</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to select a specific version of the Provider value, if supported</p>
</td>
</tr>
<tr>
<td>
<code>conversionStrategy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretConversionStrategy">
ExternalSecretConversionStrategy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to define a conversion Strategy</p>
</td>
</tr>
<tr>
<td>
<code>decodingStrategy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDecodingStrategy">
ExternalSecretDecodingStrategy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to define a decoding Strategy</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretDecodingStrategy">ExternalSecretDecodingStrategy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">ExternalSecretDataRemoteRef</a>,
<a href="#external-secrets.io/v1beta1.ExternalSecretFind">ExternalSecretFind</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Auto"</p></td>
<td></td>
</tr><tr><td><p>"Base64"</p></td>
<td></td>
</tr><tr><td><p>"Base64URL"</p></td>
<td></td>
</tr><tr><td><p>"None"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretDeletionPolicy">ExternalSecretDeletionPolicy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTarget">ExternalSecretTarget</a>)
</p>
<p>
<p>ExternalSecretDeletionPolicy defines rules on how to delete the resulting Secret.</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Delete"</p></td>
<td><p>Delete deletes the secret if all provider secrets are deleted.
If a secret gets deleted on the provider side and is not accessible
anymore this is not considered an error and the ExternalSecret
does not go into SecretSyncedError status.</p>
</td>
</tr><tr><td><p>"Merge"</p></td>
<td><p>Merge removes keys in the secret, but not the secret itself.
If a secret gets deleted on the provider side and is not accessible
anymore this is not considered an error and the ExternalSecret
does not go into SecretSyncedError status.</p>
</td>
</tr><tr><td><p>"Retain"</p></td>
<td><p>Retain will retain the secret if all provider secrets have been deleted.
If a provider secret does not exist the ExternalSecret gets into the
SecretSyncedError status.</p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretFind">ExternalSecretFind
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">ExternalSecretDataFromRemoteRef</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>A root path to start the find operations.</p>
</td>
</tr>
<tr>
<td>
<code>name</code></br>
<em>
<a href="#external-secrets.io/v1beta1.FindName">
FindName
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Finds secrets based on the name.</p>
</td>
</tr>
<tr>
<td>
<code>tags</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Find secrets based on tags.</p>
</td>
</tr>
<tr>
<td>
<code>conversionStrategy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretConversionStrategy">
ExternalSecretConversionStrategy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to define a conversion Strategy</p>
</td>
</tr>
<tr>
<td>
<code>decodingStrategy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDecodingStrategy">
ExternalSecretDecodingStrategy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to define a decoding Strategy</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretMetadata">ExternalSecretMetadata
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretSpec">ClusterExternalSecretSpec</a>)
</p>
<p>
<p>ExternalSecretMetadata defines metadata fields for the ExternalSecret generated by the ClusterExternalSecret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>annotations</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>labels</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretMetadataPolicy">ExternalSecretMetadataPolicy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataRemoteRef">ExternalSecretDataRemoteRef</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Fetch"</p></td>
<td></td>
</tr><tr><td><p>"None"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretRewrite">ExternalSecretRewrite
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">ExternalSecretDataFromRemoteRef</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>regexp</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretRewriteRegexp">
ExternalSecretRewriteRegexp
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to rewrite with regular expressions.
The resulting key will be the output of a regexp.ReplaceAll operation.</p>
</td>
</tr>
<tr>
<td>
<code>transform</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretRewriteTransform">
ExternalSecretRewriteTransform
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to apply string transformation on the secrets.
The resulting key will be the output of the template applied by the operation.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretRewriteRegexp">ExternalSecretRewriteRegexp
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretRewrite">ExternalSecretRewrite</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>source</code></br>
<em>
string
</em>
</td>
<td>
<p>Used to define the regular expression of a re.Compiler.</p>
</td>
</tr>
<tr>
<td>
<code>target</code></br>
<em>
string
</em>
</td>
<td>
<p>Used to define the target pattern of a ReplaceAll operation.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretRewriteTransform">ExternalSecretRewriteTransform
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretRewrite">ExternalSecretRewrite</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>template</code></br>
<em>
string
</em>
</td>
<td>
<p>Used to define the template to apply on the secret name.
<code>.value</code> will specify the secret name in the template.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretSpec">ExternalSecretSpec
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterExternalSecretSpec">ClusterExternalSecretSpec</a>,
<a href="#external-secrets.io/v1beta1.ExternalSecret">ExternalSecret</a>)
</p>
<p>
<p>ExternalSecretSpec defines the desired state of ExternalSecret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretStoreRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRef">
SecretStoreRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>target</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTarget">
ExternalSecretTarget
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>refreshInterval</code></br>
<em>
<a href="https://pkg.go.dev/k8s.io/apimachinery/pkg/apis/meta/v1#Duration">
Kubernetes meta/v1.Duration
</a>
</em>
</td>
<td>
<p>RefreshInterval is the amount of time before the values are read again from the SecretStore provider,
specified as Golang Duration strings.
Valid time units are “ns”, “us” (or “µs”), “ms”, “s”, “m”, “h”
Example values: “1h”, “2h30m”, “5d”, “10s”
May be set to zero to fetch and create it once. Defaults to 1h.</p>
</td>
</tr>
<tr>
<td>
<code>data</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretData">
[]ExternalSecretData
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Data defines the connection between the Kubernetes Secret keys and the Provider data</p>
</td>
</tr>
<tr>
<td>
<code>dataFrom</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">
[]ExternalSecretDataFromRemoteRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>DataFrom is used to fetch all properties from a specific Provider data
If multiple entries are specified, the Secret keys are merged in the specified order</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretStatus">ExternalSecretStatus
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecret">ExternalSecret</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>refreshTime</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#time-v1-meta">
Kubernetes meta/v1.Time
</a>
</em>
</td>
<td>
<p>refreshTime is the time and date the external secret was fetched and
the target secret updated</p>
</td>
</tr>
<tr>
<td>
<code>syncedResourceVersion</code></br>
<em>
string
</em>
</td>
<td>
<p>SyncedResourceVersion keeps track of the last synced version</p>
</td>
</tr>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretStatusCondition">
[]ExternalSecretStatusCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>binding</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#localobjectreference-v1-core">
Kubernetes core/v1.LocalObjectReference
</a>
</em>
</td>
<td>
<p>Binding represents a servicebinding.io Provisioned Service reference to the secret</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretStatusCondition">ExternalSecretStatusCondition
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretStatus">ExternalSecretStatus</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretConditionType">
ExternalSecretConditionType
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#conditionstatus-v1-core">
Kubernetes core/v1.ConditionStatus
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>reason</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>message</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>lastTransitionTime</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#time-v1-meta">
Kubernetes meta/v1.Time
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretTarget">ExternalSecretTarget
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">ExternalSecretSpec</a>)
</p>
<p>
<p>ExternalSecretTarget defines the Kubernetes Secret to be created
There can be only one target per ExternalSecret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>The name of the Secret resource to be managed.
Defaults to the .metadata.name of the ExternalSecret resource</p>
</td>
</tr>
<tr>
<td>
<code>creationPolicy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretCreationPolicy">
ExternalSecretCreationPolicy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>CreationPolicy defines rules on how to create the resulting Secret.
Defaults to “Owner”</p>
</td>
</tr>
<tr>
<td>
<code>deletionPolicy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDeletionPolicy">
ExternalSecretDeletionPolicy
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>DeletionPolicy defines rules on how to delete the resulting Secret.
Defaults to “Retain”</p>
</td>
</tr>
<tr>
<td>
<code>template</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplate">
ExternalSecretTemplate
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Template defines a blueprint for the created Secret resource.</p>
</td>
</tr>
<tr>
<td>
<code>immutable</code></br>
<em>
bool
</em>
</td>
<td>
<em>(Optional)</em>
<p>Immutable defines if the final secret will be immutable</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretTemplate">ExternalSecretTemplate
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTarget">ExternalSecretTarget</a>)
</p>
<p>
<p>ExternalSecretTemplate defines a blueprint for the created Secret resource.
we can not use native corev1.Secret, it will have empty ObjectMeta values: <a href="https://github.com/kubernetes-sigs/controller-tools/issues/448">https://github.com/kubernetes-sigs/controller-tools/issues/448</a></p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#secrettype-v1-core">
Kubernetes core/v1.SecretType
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>engineVersion</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateEngineVersion">
TemplateEngineVersion
</a>
</em>
</td>
<td>
<p>EngineVersion specifies the template engine version
that should be used to compile/execute the
template specified in .data and .templateFrom[].</p>
</td>
</tr>
<tr>
<td>
<code>metadata</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplateMetadata">
ExternalSecretTemplateMetadata
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>mergePolicy</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateMergePolicy">
TemplateMergePolicy
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>data</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>templateFrom</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateFrom">
[]TemplateFrom
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretTemplateMetadata">ExternalSecretTemplateMetadata
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplate">ExternalSecretTemplate</a>)
</p>
<p>
<p>ExternalSecretTemplateMetadata defines metadata fields for the Secret blueprint.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>annotations</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>labels</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ExternalSecretValidator">ExternalSecretValidator
</h3>
<p>
</p>
<h3 id="external-secrets.io/v1beta1.FakeProvider">FakeProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>FakeProvider configures a fake provider that returns static values.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>data</code></br>
<em>
<a href="#external-secrets.io/v1beta1.FakeProviderData">
[]FakeProviderData
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.FakeProviderData">FakeProviderData
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.FakeProvider">FakeProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>valueMap</code></br>
<em>
map[string]string
</em>
</td>
<td>
<p>Deprecated: ValueMap is deprecated and is intended to be removed in the future, use the <code>value</code> field instead.</p>
</td>
</tr>
<tr>
<td>
<code>version</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.FindName">FindName
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretFind">ExternalSecretFind</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>regexp</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Finds secrets base</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.FortanixProvider">FortanixProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiUrl</code></br>
<em>
string
</em>
</td>
<td>
<p>APIURL is the URL of SDKMS API. Defaults to <code>sdkms.fortanix.com</code>.</p>
</td>
</tr>
<tr>
<td>
<code>apiKey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.FortanixProviderSecretRef">
FortanixProviderSecretRef
</a>
</em>
</td>
<td>
<p>APIKey is the API token to access SDKMS Applications.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.FortanixProviderSecretRef">FortanixProviderSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.FortanixProvider">FortanixProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretRef is a reference to a secret containing the SDKMS API Key.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GCPSMAuth">GCPSMAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.GCPSMProvider">GCPSMProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GCPSMAuthSecretRef">
GCPSMAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>workloadIdentity</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GCPWorkloadIdentity">
GCPWorkloadIdentity
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GCPSMAuthSecretRef">GCPSMAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.GCPSMAuth">GCPSMAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretAccessKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The SecretAccessKey is used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GCPSMProvider">GCPSMProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>GCPSMProvider Configures a store to sync secrets using the GCP Secret Manager provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GCPSMAuth">
GCPSMAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth defines the information necessary to authenticate against GCP</p>
</td>
</tr>
<tr>
<td>
<code>projectID</code></br>
<em>
string
</em>
</td>
<td>
<p>ProjectID project where secret is located</p>
</td>
</tr>
<tr>
<td>
<code>location</code></br>
<em>
string
</em>
</td>
<td>
<p>Location optionally defines a location for a secret</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GCPWorkloadIdentity">GCPWorkloadIdentity
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.GCPSMAuth">GCPSMAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clusterLocation</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clusterName</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clusterProjectID</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GeneratorRef">GeneratorRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.StoreGeneratorSourceRef">StoreGeneratorSourceRef</a>,
<a href="#external-secrets.io/v1beta1.StoreSourceRef">StoreSourceRef</a>)
</p>
<p>
<p>GeneratorRef points to a generator custom resource.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiVersion</code></br>
<em>
string
</em>
</td>
<td>
<p>Specify the apiVersion of the generator resource</p>
</td>
</tr>
<tr>
<td>
<code>kind</code></br>
<em>
string
</em>
</td>
<td>
<p>Specify the Kind of the generator resource</p>
</td>
</tr>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>Specify the name of the generator resource</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GenericStore">GenericStore
</h3>
<p>
<p>GenericStore is a common interface for interacting with ClusterSecretStore
or a namespaced SecretStore.</p>
</p>
<h3 id="external-secrets.io/v1beta1.GenericStoreValidator">GenericStoreValidator
</h3>
<p>
</p>
<h3 id="external-secrets.io/v1beta1.GitlabAuth">GitlabAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.GitlabProvider">GitlabProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>SecretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GitlabSecretRef">
GitlabSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GitlabProvider">GitlabProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures a store to sync secrets with a GitLab instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>url</code></br>
<em>
string
</em>
</td>
<td>
<p>URL configures the GitLab instance URL. Defaults to <a href="https://gitlab.com/">https://gitlab.com/</a>.</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GitlabAuth">
GitlabAuth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with a GitLab instance.</p>
</td>
</tr>
<tr>
<td>
<code>projectID</code></br>
<em>
string
</em>
</td>
<td>
<p>ProjectID specifies a project where secrets are located.</p>
</td>
</tr>
<tr>
<td>
<code>inheritFromGroups</code></br>
<em>
bool
</em>
</td>
<td>
<p>InheritFromGroups specifies whether parent groups should be discovered and checked for secrets.</p>
</td>
</tr>
<tr>
<td>
<code>groupIDs</code></br>
<em>
[]string
</em>
</td>
<td>
<p>GroupIDs specify, which gitlab groups to pull secrets from. Group secrets are read from left to right followed by the project variables.</p>
</td>
</tr>
<tr>
<td>
<code>environment</code></br>
<em>
string
</em>
</td>
<td>
<p>Environment environment_scope of gitlab CI/CD variables (Please see <a href="https://docs.gitlab.com/ee/ci/environments/#create-a-static-environment">https://docs.gitlab.com/ee/ci/environments/#create-a-static-environment</a> on how to create environments)</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.GitlabSecretRef">GitlabSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.GitlabAuth">GitlabAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessToken</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>AccessToken is used for authentication.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.IBMAuth">IBMAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.IBMProvider">IBMProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.IBMAuthSecretRef">
IBMAuthSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>containerAuth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.IBMAuthContainerAuth">
IBMAuthContainerAuth
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.IBMAuthContainerAuth">IBMAuthContainerAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.IBMAuth">IBMAuth</a>)
</p>
<p>
<p>IBM Container-based auth with IAM Trusted Profile.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>profile</code></br>
<em>
string
</em>
</td>
<td>
<p>the IBM Trusted Profile</p>
</td>
</tr>
<tr>
<td>
<code>tokenLocation</code></br>
<em>
string
</em>
</td>
<td>
<p>Location the token is mounted on the pod</p>
</td>
</tr>
<tr>
<td>
<code>iamEndpoint</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.IBMAuthSecretRef">IBMAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.IBMAuth">IBMAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretApiKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SecretAccessKey is used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.IBMProvider">IBMProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures an store to sync secrets using a IBM Cloud Secrets Manager
backend.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.IBMAuth">
IBMAuth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with the IBM secrets manager.</p>
</td>
</tr>
<tr>
<td>
<code>serviceUrl</code></br>
<em>
string
</em>
</td>
<td>
<p>ServiceURL is the Endpoint URL that is specific to the Secrets Manager service instance</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.InfisicalAuth">InfisicalAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.InfisicalProvider">InfisicalProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>universalAuthCredentials</code></br>
<em>
<a href="#external-secrets.io/v1beta1.UniversalAuthCredentials">
UniversalAuthCredentials
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.InfisicalProvider">InfisicalProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>InfisicalProvider configures a store to sync secrets using the Infisical provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.InfisicalAuth">
InfisicalAuth
</a>
</em>
</td>
<td>
<p>Auth configures how the Operator authenticates with the Infisical API</p>
</td>
</tr>
<tr>
<td>
<code>secretsScope</code></br>
<em>
<a href="#external-secrets.io/v1beta1.MachineIdentityScopeInWorkspace">
MachineIdentityScopeInWorkspace
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>hostAPI</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.KeeperSecurityProvider">KeeperSecurityProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>KeeperSecurityProvider Configures a store to sync secrets using Keeper Security.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>authRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>folderID</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.KubernetesAuth">KubernetesAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.KubernetesProvider">KubernetesProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>cert</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CertAuth">
CertAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>has both clientCert and clientKey as secretKeySelector</p>
</td>
</tr>
<tr>
<td>
<code>token</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TokenAuth">
TokenAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>use static token to authenticate with</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccount</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>points to a service account that should be used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.KubernetesProvider">KubernetesProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures a store to sync secrets with a Kubernetes instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>server</code></br>
<em>
<a href="#external-secrets.io/v1beta1.KubernetesServer">
KubernetesServer
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>configures the Kubernetes server Address.</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.KubernetesAuth">
KubernetesAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth configures how secret-manager authenticates with a Kubernetes instance.</p>
</td>
</tr>
<tr>
<td>
<code>authRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>A reference to a secret that contains the auth information.</p>
</td>
</tr>
<tr>
<td>
<code>remoteNamespace</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Remote namespace to fetch the secrets from</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.KubernetesServer">KubernetesServer
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.KubernetesProvider">KubernetesProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>url</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>configures the Kubernetes server Address.</p>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
[]byte
</em>
</td>
<td>
<em>(Optional)</em>
<p>CABundle is a base64-encoded CA certificate</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProvider">
CAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>see: <a href="https://external-secrets.io/v0.4.1/spec/#external-secrets.io/v1alpha1.CAProvider">https://external-secrets.io/v0.4.1/spec/#external-secrets.io/v1alpha1.CAProvider</a></p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.MachineIdentityScopeInWorkspace">MachineIdentityScopeInWorkspace
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.InfisicalProvider">InfisicalProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretsPath</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>recursive</code></br>
<em>
bool
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>environmentSlug</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>projectSlug</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.NoSecretError">NoSecretError
</h3>
<p>
<p>NoSecretError shall be returned when a GetSecret can not find the
desired secret. This is used for deletionPolicy.</p>
</p>
<h3 id="external-secrets.io/v1beta1.NotModifiedError">NotModifiedError
</h3>
<p>
<p>NotModifiedError to signal that the webhook received no changes,
and it should just return without doing anything.</p>
</p>
<h3 id="external-secrets.io/v1beta1.OnboardbaseAuthSecretRef">OnboardbaseAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OnboardbaseProvider">OnboardbaseProvider</a>)
</p>
<p>
<p>OnboardbaseAuthSecretRef holds secret references for onboardbase API Key credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiKeyRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>OnboardbaseAPIKey is the APIKey generated by an admin account.
It is used to recognize and authorize access to a project and environment within onboardbase</p>
</td>
</tr>
<tr>
<td>
<code>passcodeRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>OnboardbasePasscode is the passcode attached to the API Key</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OnboardbaseProvider">OnboardbaseProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>OnboardbaseProvider configures a store to sync secrets using the Onboardbase provider.
Project and Config are required if not using a Service Token.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OnboardbaseAuthSecretRef">
OnboardbaseAuthSecretRef
</a>
</em>
</td>
<td>
<p>Auth configures how the Operator authenticates with the Onboardbase API</p>
</td>
</tr>
<tr>
<td>
<code>apiHost</code></br>
<em>
string
</em>
</td>
<td>
<p>APIHost use this to configure the host url for the API for selfhosted installation, default is <a href="https://public.onboardbase.com/api/v1/">https://public.onboardbase.com/api/v1/</a></p>
</td>
</tr>
<tr>
<td>
<code>project</code></br>
<em>
string
</em>
</td>
<td>
<p>Project is an onboardbase project that the secrets should be pulled from</p>
</td>
</tr>
<tr>
<td>
<code>environment</code></br>
<em>
string
</em>
</td>
<td>
<p>Environment is the name of an environmnent within a project to pull the secrets from</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OnePasswordAuth">OnePasswordAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OnePasswordProvider">OnePasswordProvider</a>)
</p>
<p>
<p>OnePasswordAuth contains a secretRef for credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OnePasswordAuthSecretRef">
OnePasswordAuthSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OnePasswordAuthSecretRef">OnePasswordAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OnePasswordAuth">OnePasswordAuth</a>)
</p>
<p>
<p>OnePasswordAuthSecretRef holds secret references for 1Password credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>connectTokenSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The ConnectToken is used for authentication to a 1Password Connect Server.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OnePasswordProvider">OnePasswordProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>OnePasswordProvider configures a store to sync secrets using the 1Password Secret Manager provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OnePasswordAuth">
OnePasswordAuth
</a>
</em>
</td>
<td>
<p>Auth defines the information necessary to authenticate against OnePassword Connect Server</p>
</td>
</tr>
<tr>
<td>
<code>connectHost</code></br>
<em>
string
</em>
</td>
<td>
<p>ConnectHost defines the OnePassword Connect Server to connect to</p>
</td>
</tr>
<tr>
<td>
<code>vaults</code></br>
<em>
map[string]int
</em>
</td>
<td>
<p>Vaults defines which OnePassword vaults to search in which order</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OracleAuth">OracleAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OracleProvider">OracleProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>tenancy</code></br>
<em>
string
</em>
</td>
<td>
<p>Tenancy is the tenancy OCID where user is located.</p>
</td>
</tr>
<tr>
<td>
<code>user</code></br>
<em>
string
</em>
</td>
<td>
<p>User is an access OCID specific to the account.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OracleSecretRef">
OracleSecretRef
</a>
</em>
</td>
<td>
<p>SecretRef to pass through sensitive information.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OraclePrincipalType">OraclePrincipalType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OracleProvider">OracleProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"InstancePrincipal"</p></td>
<td><p>InstancePrincipal represents a instance principal.</p>
</td>
</tr><tr><td><p>"UserPrincipal"</p></td>
<td><p>UserPrincipal represents a user principal.</p>
</td>
</tr><tr><td><p>"Workload"</p></td>
<td><p>WorkloadPrincipal represents a workload principal.</p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OracleProvider">OracleProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures an store to sync secrets using a Oracle Vault
backend.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>region</code></br>
<em>
string
</em>
</td>
<td>
<p>Region is the region where vault is located.</p>
</td>
</tr>
<tr>
<td>
<code>vault</code></br>
<em>
string
</em>
</td>
<td>
<p>Vault is the vault’s OCID of the specific vault where secret is located.</p>
</td>
</tr>
<tr>
<td>
<code>compartment</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Compartment is the vault compartment OCID.
Required for PushSecret</p>
</td>
</tr>
<tr>
<td>
<code>encryptionKey</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>EncryptionKey is the OCID of the encryption key within the vault.
Required for PushSecret</p>
</td>
</tr>
<tr>
<td>
<code>principalType</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OraclePrincipalType">
OraclePrincipalType
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The type of principal to use for authentication. If left blank, the Auth struct will
determine the principal type. This optional field must be specified if using
workload identity.</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OracleAuth">
OracleAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Auth configures how secret-manager authenticates with the Oracle Vault.
If empty, use the instance principal, otherwise the user credentials specified in Auth.</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>ServiceAccountRef specified the service account
that should be used when authenticating with WorkloadIdentity.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.OracleSecretRef">OracleSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.OracleAuth">OracleAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>privatekey</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>PrivateKey is the user’s API Signing Key in PEM format, used for authentication.</p>
</td>
</tr>
<tr>
<td>
<code>fingerprint</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>Fingerprint is the fingerprint of the API private key.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PassboltAuth">PassboltAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PassboltProvider">PassboltProvider</a>)
</p>
<p>
<p>Passbolt contains a secretRef for the passbolt credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>passwordSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>privateKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PassboltProvider">PassboltProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PassboltAuth">
PassboltAuth
</a>
</em>
</td>
<td>
<p>Auth defines the information necessary to authenticate against Passbolt Server</p>
</td>
</tr>
<tr>
<td>
<code>host</code></br>
<em>
string
</em>
</td>
<td>
<p>Host defines the Passbolt Server to connect to</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PasswordDepotAuth">PasswordDepotAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PasswordDepotProvider">PasswordDepotProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PasswordDepotSecretRef">
PasswordDepotSecretRef
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PasswordDepotProvider">PasswordDepotProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures a store to sync secrets with a Password Depot instance.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>host</code></br>
<em>
string
</em>
</td>
<td>
<p>URL configures the Password Depot instance URL.</p>
</td>
</tr>
<tr>
<td>
<code>database</code></br>
<em>
string
</em>
</td>
<td>
<p>Database to use as source</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PasswordDepotAuth">
PasswordDepotAuth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with a Password Depot instance.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PasswordDepotSecretRef">PasswordDepotSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PasswordDepotAuth">PasswordDepotAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>credentials</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Username / Password is used for authentication.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PreviderAuth">PreviderAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PreviderProvider">PreviderProvider</a>)
</p>
<p>
<p>PreviderAuth contains a secretRef for credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PreviderAuthSecretRef">
PreviderAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PreviderAuthSecretRef">PreviderAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PreviderAuth">PreviderAuth</a>)
</p>
<p>
<p>PreviderAuthSecretRef holds secret references for Previder Vault credentials.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessToken</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The AccessToken is used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PreviderProvider">PreviderProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>PreviderProvider configures a store to sync secrets using the Previder Secret Manager provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PreviderAuth">
PreviderAuth
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>baseUri</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.Provider">Provider
</h3>
<p>
<p>Provider is a common interface for interacting with secret backends.</p>
</p>
<h3 id="external-secrets.io/v1beta1.PulumiProvider">PulumiProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiUrl</code></br>
<em>
string
</em>
</td>
<td>
<p>APIURL is the URL of the Pulumi API.</p>
</td>
</tr>
<tr>
<td>
<code>accessToken</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PulumiProviderSecretRef">
PulumiProviderSecretRef
</a>
</em>
</td>
<td>
<p>AccessToken is the access tokens to sign in to the Pulumi Cloud Console.</p>
</td>
</tr>
<tr>
<td>
<code>organization</code></br>
<em>
string
</em>
</td>
<td>
<p>Organization are a space to collaborate on shared projects and stacks.
To create a new organization, visit <a href="https://app.pulumi.com/">https://app.pulumi.com/</a> and click “New Organization”.</p>
</td>
</tr>
<tr>
<td>
<code>project</code></br>
<em>
string
</em>
</td>
<td>
<p>Project is the name of the Pulumi ESC project the environment belongs to.</p>
</td>
</tr>
<tr>
<td>
<code>environment</code></br>
<em>
string
</em>
</td>
<td>
<p>Environment are YAML documents composed of static key-value pairs, programmatic expressions,
dynamically retrieved values from supported providers including all major clouds,
and other Pulumi ESC environments.
To create a new environment, visit <a href="https://www.pulumi.com/docs/esc/environments/">https://www.pulumi.com/docs/esc/environments/</a> for more information.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PulumiProviderSecretRef">PulumiProviderSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.PulumiProvider">PulumiProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretRef is a reference to a secret containing the Pulumi API token.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.PushSecretData">PushSecretData
</h3>
<p>
<p>PushSecretData is an interface to allow using v1alpha1.PushSecretData content in Provider registered in v1beta1.</p>
</p>
<h3 id="external-secrets.io/v1beta1.PushSecretRemoteRef">PushSecretRemoteRef
</h3>
<p>
<p>PushSecretRemoteRef is an interface to allow using v1alpha1.PushSecretRemoteRef in Provider registered in v1beta1.</p>
</p>
<h3 id="external-secrets.io/v1beta1.ScalewayProvider">ScalewayProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiUrl</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>APIURL is the url of the api to use. Defaults to <a href="https://api.scaleway.com">https://api.scaleway.com</a></p>
</td>
</tr>
<tr>
<td>
<code>region</code></br>
<em>
string
</em>
</td>
<td>
<p>Region where your secrets are located: <a href="https://developers.scaleway.com/en/quickstart/#region-and-zone">https://developers.scaleway.com/en/quickstart/#region-and-zone</a></p>
</td>
</tr>
<tr>
<td>
<code>projectId</code></br>
<em>
string
</em>
</td>
<td>
<p>ProjectID is the id of your project, which you can find in the console: <a href="https://console.scaleway.com/project/settings">https://console.scaleway.com/project/settings</a></p>
</td>
</tr>
<tr>
<td>
<code>accessKey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ScalewayProviderSecretRef">
ScalewayProviderSecretRef
</a>
</em>
</td>
<td>
<p>AccessKey is the non-secret part of the api key.</p>
</td>
</tr>
<tr>
<td>
<code>secretKey</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ScalewayProviderSecretRef">
ScalewayProviderSecretRef
</a>
</em>
</td>
<td>
<p>SecretKey is the non-secret part of the api key.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ScalewayProviderSecretRef">ScalewayProviderSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ScalewayProvider">ScalewayProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Value can be specified directly to set a value without using a secret.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretRef references a key in a secret that will be used as value.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretServerProvider">SecretServerProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>See <a href="https://github.com/DelineaXPM/tss-sdk-go/blob/main/server/server.go">https://github.com/DelineaXPM/tss-sdk-go/blob/main/server/server.go</a>.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>username</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretServerProviderRef">
SecretServerProviderRef
</a>
</em>
</td>
<td>
<p>Username is the secret server account username.</p>
</td>
</tr>
<tr>
<td>
<code>password</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretServerProviderRef">
SecretServerProviderRef
</a>
</em>
</td>
<td>
<p>Password is the secret server account password.</p>
</td>
</tr>
<tr>
<td>
<code>serverURL</code></br>
<em>
string
</em>
</td>
<td>
<p>ServerURL
URL to your secret server installation</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretServerProviderRef">SecretServerProviderRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretServerProvider">SecretServerProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Value can be specified directly to set a value without using a secret.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretRef references a key in a secret that will be used as value.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStore">SecretStore
</h3>
<p>
<p>SecretStore represents a secure external location for storing secrets, which can be referenced as part of <code>storeRef</code> fields.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>metadata</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#objectmeta-v1-meta">
Kubernetes meta/v1.ObjectMeta
</a>
</em>
</td>
<td>
Refer to the Kubernetes API documentation for the fields of the
<code>metadata</code> field.
</td>
</tr>
<tr>
<td>
<code>spec</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreSpec">
SecretStoreSpec
</a>
</em>
</td>
<td>
<br/>
<br/>
<table>
<tr>
<td>
<code>controller</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to select the correct ESO controller (think: ingress.ingressClassName)
The ESO controller is instantiated with a specific controller name and filters ES based on this property</p>
</td>
</tr>
<tr>
<td>
<code>provider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">
SecretStoreProvider
</a>
</em>
</td>
<td>
<p>Used to configure the provider. Only one provider may be set</p>
</td>
</tr>
<tr>
<td>
<code>retrySettings</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRetrySettings">
SecretStoreRetrySettings
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure http retries if failed</p>
</td>
</tr>
<tr>
<td>
<code>refreshInterval</code></br>
<em>
int
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure store refresh interval in seconds. Empty or 0 will default to the controller config.</p>
</td>
</tr>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterSecretStoreCondition">
[]ClusterSecretStoreCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to constraint a ClusterSecretStore to specific namespaces. Relevant only to ClusterSecretStore</p>
</td>
</tr>
</table>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatus">
SecretStoreStatus
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreCapabilities">SecretStoreCapabilities
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatus">SecretStoreStatus</a>)
</p>
<p>
<p>SecretStoreCapabilities defines the possible operations a SecretStore can do.</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ReadOnly"</p></td>
<td></td>
</tr><tr><td><p>"ReadWrite"</p></td>
<td></td>
</tr><tr><td><p>"WriteOnly"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreConditionType">SecretStoreConditionType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatusCondition">SecretStoreStatusCondition</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Ready"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreSpec">SecretStoreSpec</a>)
</p>
<p>
<p>SecretStoreProvider contains the provider-specific configuration.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>aws</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AWSProvider">
AWSProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>AWS configures this store to sync secrets using AWS Secret Manager provider</p>
</td>
</tr>
<tr>
<td>
<code>azurekv</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AzureKVProvider">
AzureKVProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>AzureKV configures this store to sync secrets using Azure Key Vault provider</p>
</td>
</tr>
<tr>
<td>
<code>akeyless</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AkeylessProvider">
AkeylessProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Akeyless configures this store to sync secrets using Akeyless Vault provider</p>
</td>
</tr>
<tr>
<td>
<code>bitwardensecretsmanager</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BitwardenSecretsManagerProvider">
BitwardenSecretsManagerProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>BitwardenSecretsManager configures this store to sync secrets using BitwardenSecretsManager provider</p>
</td>
</tr>
<tr>
<td>
<code>vault</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultProvider">
VaultProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Vault configures this store to sync secrets using Hashi provider</p>
</td>
</tr>
<tr>
<td>
<code>gcpsm</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GCPSMProvider">
GCPSMProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>GCPSM configures this store to sync secrets using Google Cloud Platform Secret Manager provider</p>
</td>
</tr>
<tr>
<td>
<code>oracle</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OracleProvider">
OracleProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Oracle configures this store to sync secrets using Oracle Vault provider</p>
</td>
</tr>
<tr>
<td>
<code>ibm</code></br>
<em>
<a href="#external-secrets.io/v1beta1.IBMProvider">
IBMProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>IBM configures this store to sync secrets using IBM Cloud provider</p>
</td>
</tr>
<tr>
<td>
<code>yandexcertificatemanager</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexCertificateManagerProvider">
YandexCertificateManagerProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>YandexCertificateManager configures this store to sync secrets using Yandex Certificate Manager provider</p>
</td>
</tr>
<tr>
<td>
<code>yandexlockbox</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexLockboxProvider">
YandexLockboxProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>YandexLockbox configures this store to sync secrets using Yandex Lockbox provider</p>
</td>
</tr>
<tr>
<td>
<code>gitlab</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GitlabProvider">
GitlabProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>GitLab configures this store to sync secrets using GitLab Variables provider</p>
</td>
</tr>
<tr>
<td>
<code>alibaba</code></br>
<em>
<a href="#external-secrets.io/v1beta1.AlibabaProvider">
AlibabaProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Alibaba configures this store to sync secrets using Alibaba Cloud provider</p>
</td>
</tr>
<tr>
<td>
<code>onepassword</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OnePasswordProvider">
OnePasswordProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>OnePassword configures this store to sync secrets using the 1Password Cloud provider</p>
</td>
</tr>
<tr>
<td>
<code>webhook</code></br>
<em>
<a href="#external-secrets.io/v1beta1.WebhookProvider">
WebhookProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Webhook configures this store to sync secrets using a generic templated webhook</p>
</td>
</tr>
<tr>
<td>
<code>kubernetes</code></br>
<em>
<a href="#external-secrets.io/v1beta1.KubernetesProvider">
KubernetesProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Kubernetes configures this store to sync secrets using a Kubernetes cluster provider</p>
</td>
</tr>
<tr>
<td>
<code>fake</code></br>
<em>
<a href="#external-secrets.io/v1beta1.FakeProvider">
FakeProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Fake configures a store with static key/value pairs</p>
</td>
</tr>
<tr>
<td>
<code>senhasegura</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SenhaseguraProvider">
SenhaseguraProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Senhasegura configures this store to sync secrets using senhasegura provider</p>
</td>
</tr>
<tr>
<td>
<code>scaleway</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ScalewayProvider">
ScalewayProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Scaleway</p>
</td>
</tr>
<tr>
<td>
<code>doppler</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DopplerProvider">
DopplerProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Doppler configures this store to sync secrets using the Doppler provider</p>
</td>
</tr>
<tr>
<td>
<code>previder</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PreviderProvider">
PreviderProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Previder configures this store to sync secrets using the Previder provider</p>
</td>
</tr>
<tr>
<td>
<code>onboardbase</code></br>
<em>
<a href="#external-secrets.io/v1beta1.OnboardbaseProvider">
OnboardbaseProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Onboardbase configures this store to sync secrets using the Onboardbase provider</p>
</td>
</tr>
<tr>
<td>
<code>keepersecurity</code></br>
<em>
<a href="#external-secrets.io/v1beta1.KeeperSecurityProvider">
KeeperSecurityProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>KeeperSecurity configures this store to sync secrets using the KeeperSecurity provider</p>
</td>
</tr>
<tr>
<td>
<code>conjur</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ConjurProvider">
ConjurProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Conjur configures this store to sync secrets using conjur provider</p>
</td>
</tr>
<tr>
<td>
<code>delinea</code></br>
<em>
<a href="#external-secrets.io/v1beta1.DelineaProvider">
DelineaProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Delinea DevOps Secrets Vault
<a href="https://docs.delinea.com/online-help/products/devops-secrets-vault/current">https://docs.delinea.com/online-help/products/devops-secrets-vault/current</a></p>
</td>
</tr>
<tr>
<td>
<code>secretserver</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretServerProvider">
SecretServerProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>SecretServer configures this store to sync secrets using SecretServer provider
<a href="https://docs.delinea.com/online-help/secret-server/start.htm">https://docs.delinea.com/online-help/secret-server/start.htm</a></p>
</td>
</tr>
<tr>
<td>
<code>chef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ChefProvider">
ChefProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Chef configures this store to sync secrets with chef server</p>
</td>
</tr>
<tr>
<td>
<code>pulumi</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PulumiProvider">
PulumiProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Pulumi configures this store to sync secrets using the Pulumi provider</p>
</td>
</tr>
<tr>
<td>
<code>fortanix</code></br>
<em>
<a href="#external-secrets.io/v1beta1.FortanixProvider">
FortanixProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Fortanix configures this store to sync secrets using the Fortanix provider</p>
</td>
</tr>
<tr>
<td>
<code>passworddepot</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PasswordDepotProvider">
PasswordDepotProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>passbolt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.PassboltProvider">
PassboltProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>device42</code></br>
<em>
<a href="#external-secrets.io/v1beta1.Device42Provider">
Device42Provider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Device42 configures this store to sync secrets using the Device42 provider</p>
</td>
</tr>
<tr>
<td>
<code>infisical</code></br>
<em>
<a href="#external-secrets.io/v1beta1.InfisicalProvider">
InfisicalProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Infisical configures this store to sync secrets using the Infisical provider</p>
</td>
</tr>
<tr>
<td>
<code>beyondtrust</code></br>
<em>
<a href="#external-secrets.io/v1beta1.BeyondtrustProvider">
BeyondtrustProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Beyondtrust configures this store to sync secrets using Password Safe provider.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreRef">SecretStoreRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretSpec">ExternalSecretSpec</a>,
<a href="#external-secrets.io/v1beta1.StoreGeneratorSourceRef">StoreGeneratorSourceRef</a>,
<a href="#external-secrets.io/v1beta1.StoreSourceRef">StoreSourceRef</a>)
</p>
<p>
<p>SecretStoreRef defines which SecretStore to fetch the ExternalSecret data.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>Name of the SecretStore resource</p>
</td>
</tr>
<tr>
<td>
<code>kind</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Kind of the SecretStore resource (SecretStore or ClusterSecretStore)
Defaults to <code>SecretStore</code></p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreRetrySettings">SecretStoreRetrySettings
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreSpec">SecretStoreSpec</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>maxRetries</code></br>
<em>
int32
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>retryInterval</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreSpec">SecretStoreSpec
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterSecretStore">ClusterSecretStore</a>,
<a href="#external-secrets.io/v1beta1.SecretStore">SecretStore</a>)
</p>
<p>
<p>SecretStoreSpec defines the desired state of SecretStore.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>controller</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to select the correct ESO controller (think: ingress.ingressClassName)
The ESO controller is instantiated with a specific controller name and filters ES based on this property</p>
</td>
</tr>
<tr>
<td>
<code>provider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">
SecretStoreProvider
</a>
</em>
</td>
<td>
<p>Used to configure the provider. Only one provider may be set</p>
</td>
</tr>
<tr>
<td>
<code>retrySettings</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRetrySettings">
SecretStoreRetrySettings
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure http retries if failed</p>
</td>
</tr>
<tr>
<td>
<code>refreshInterval</code></br>
<em>
int
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to configure store refresh interval in seconds. Empty or 0 will default to the controller config.</p>
</td>
</tr>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.ClusterSecretStoreCondition">
[]ClusterSecretStoreCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Used to constraint a ClusterSecretStore to specific namespaces. Relevant only to ClusterSecretStore</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreStatus">SecretStoreStatus
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ClusterSecretStore">ClusterSecretStore</a>,
<a href="#external-secrets.io/v1beta1.SecretStore">SecretStore</a>)
</p>
<p>
<p>SecretStoreStatus defines the observed state of the SecretStore.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>conditions</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatusCondition">
[]SecretStoreStatusCondition
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>capabilities</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreCapabilities">
SecretStoreCapabilities
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretStoreStatusCondition">SecretStoreStatusCondition
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreStatus">SecretStoreStatus</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreConditionType">
SecretStoreConditionType
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>status</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#conditionstatus-v1-core">
Kubernetes core/v1.ConditionStatus
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>reason</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>message</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>lastTransitionTime</code></br>
<em>
<a href="https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.25/#time-v1-meta">
Kubernetes meta/v1.Time
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SecretsClient">SecretsClient
</h3>
<p>
<p>SecretsClient provides access to secrets.</p>
</p>
<h3 id="external-secrets.io/v1beta1.SecretsManager">SecretsManager
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.AWSProvider">AWSProvider</a>)
</p>
<p>
<p>SecretsManager defines how the provider behaves when interacting with AWS
SecretsManager. Some of these settings are only applicable to controlling how
secrets are deleted, and hence only apply to PushSecret (and only when
deletionPolicy is set to Delete).</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>forceDeleteWithoutRecovery</code></br>
<em>
bool
</em>
</td>
<td>
<em>(Optional)</em>
<p>Specifies whether to delete the secret without any recovery window. You
can’t use both this parameter and RecoveryWindowInDays in the same call.
If you don’t use either, then by default Secrets Manager uses a 30 day
recovery window.
see: <a href="https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DeleteSecret.html#SecretsManager-DeleteSecret-request-ForceDeleteWithoutRecovery">https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DeleteSecret.html#SecretsManager-DeleteSecret-request-ForceDeleteWithoutRecovery</a></p>
</td>
</tr>
<tr>
<td>
<code>recoveryWindowInDays</code></br>
<em>
int64
</em>
</td>
<td>
<em>(Optional)</em>
<p>The number of days from 7 to 30 that Secrets Manager waits before
permanently deleting the secret. You can’t use both this parameter and
ForceDeleteWithoutRecovery in the same call. If you don’t use either,
then by default Secrets Manager uses a 30 day recovery window.
see: <a href="https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DeleteSecret.html#SecretsManager-DeleteSecret-request-RecoveryWindowInDays">https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DeleteSecret.html#SecretsManager-DeleteSecret-request-RecoveryWindowInDays</a></p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SenhaseguraAuth">SenhaseguraAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SenhaseguraProvider">SenhaseguraProvider</a>)
</p>
<p>
<p>SenhaseguraAuth tells the controller how to do auth in senhasegura.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientId</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clientSecretSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SenhaseguraModuleType">SenhaseguraModuleType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SenhaseguraProvider">SenhaseguraProvider</a>)
</p>
<p>
<p>SenhaseguraModuleType enum defines senhasegura target module to fetch secrets</p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"DSM"</p></td>
<td><pre><code> SenhaseguraModuleDSM is the senhasegura DevOps Secrets Management module
see: https://senhasegura.com/devops
</code></pre>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.SenhaseguraProvider">SenhaseguraProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>SenhaseguraProvider setup a store to sync secrets with senhasegura.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>url</code></br>
<em>
string
</em>
</td>
<td>
<p>URL of senhasegura</p>
</td>
</tr>
<tr>
<td>
<code>module</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SenhaseguraModuleType">
SenhaseguraModuleType
</a>
</em>
</td>
<td>
<p>Module defines which senhasegura module should be used to get secrets</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SenhaseguraAuth">
SenhaseguraAuth
</a>
</em>
</td>
<td>
<p>Auth defines parameters to authenticate in senhasegura</p>
</td>
</tr>
<tr>
<td>
<code>ignoreSslCertificate</code></br>
<em>
bool
</em>
</td>
<td>
<p>IgnoreSslCertificate defines if SSL certificate must be ignored</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.StoreGeneratorSourceRef">StoreGeneratorSourceRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretDataFromRemoteRef">ExternalSecretDataFromRemoteRef</a>)
</p>
<p>
<p>StoreGeneratorSourceRef allows you to override the source
from which the secret will be pulled from.
You can define at maximum one property.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>storeRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRef">
SecretStoreRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>generatorRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GeneratorRef">
GeneratorRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>GeneratorRef points to a generator custom resource.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.StoreSourceRef">StoreSourceRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretData">ExternalSecretData</a>)
</p>
<p>
<p>StoreSourceRef allows you to override the SecretStore source
from which the secret will be pulled from.
You can define at maximum one property.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>storeRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.SecretStoreRef">
SecretStoreRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>generatorRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.GeneratorRef">
GeneratorRef
</a>
</em>
</td>
<td>
<p>GeneratorRef points to a generator custom resource.</p>
<p>Deprecated: The generatorRef is not implemented in .data[].
this will be removed with v1.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.Tag">Tag
</h3>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>value</code></br>
<em>
string
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateEngineVersion">TemplateEngineVersion
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplate">ExternalSecretTemplate</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"v1"</p></td>
<td></td>
</tr><tr><td><p>"v2"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateFrom">TemplateFrom
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplate">ExternalSecretTemplate</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>configMap</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateRef">
TemplateRef
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>secret</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateRef">
TemplateRef
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>target</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateTarget">
TemplateTarget
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>literal</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateMergePolicy">TemplateMergePolicy
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.ExternalSecretTemplate">ExternalSecretTemplate</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Merge"</p></td>
<td></td>
</tr><tr><td><p>"Replace"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateRef">TemplateRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.TemplateFrom">TemplateFrom</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>The name of the ConfigMap/Secret resource</p>
</td>
</tr>
<tr>
<td>
<code>items</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateRefItem">
[]TemplateRefItem
</a>
</em>
</td>
<td>
<p>A list of keys in the ConfigMap/Secret to use as templates for Secret data</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateRefItem">TemplateRefItem
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.TemplateRef">TemplateRef</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
<p>A key in the ConfigMap/Secret</p>
</td>
</tr>
<tr>
<td>
<code>templateAs</code></br>
<em>
<a href="#external-secrets.io/v1beta1.TemplateScope">
TemplateScope
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateScope">TemplateScope
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.TemplateRefItem">TemplateRefItem</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"KeysAndValues"</p></td>
<td></td>
</tr><tr><td><p>"Values"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TemplateTarget">TemplateTarget
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.TemplateFrom">TemplateFrom</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"Annotations"</p></td>
<td></td>
</tr><tr><td><p>"Data"</p></td>
<td></td>
</tr><tr><td><p>"Labels"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.TokenAuth">TokenAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.KubernetesAuth">KubernetesAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>bearerToken</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.UniversalAuthCredentials">UniversalAuthCredentials
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.InfisicalAuth">InfisicalAuth</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientId</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
<tr>
<td>
<code>clientSecret</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.ValidationResult">ValidationResult
(<code>byte</code> alias)</p></h3>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>2</p></td>
<td><p>Error indicates that there is a misconfiguration.</p>
</td>
</tr><tr><td><p>0</p></td>
<td><p>Ready indicates that the client is configured correctly
and can be used.</p>
</td>
</tr><tr><td><p>1</p></td>
<td><p>Unknown indicates that the client can be used
but information is missing and it can not be validated.</p>
</td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultAppRole">VaultAppRole
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultAppRole authenticates with Vault using the App Role auth mechanism,
with the role and secret stored in a Kubernetes Secret resource.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the App Role authentication backend is mounted
in Vault, e.g: “approle”</p>
</td>
</tr>
<tr>
<td>
<code>roleId</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>RoleID configured in the App Role authentication backend when setting
up the authentication backend in Vault.</p>
</td>
</tr>
<tr>
<td>
<code>roleRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Reference to a key in a Secret that contains the App Role ID used
to authenticate with Vault.
The <code>key</code> field must be specified and denotes which entry within the Secret
resource is used as the app role id.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>Reference to a key in a Secret that contains the App Role secret used
to authenticate with Vault.
The <code>key</code> field must be specified and denotes which entry within the Secret
resource is used as the app role secret.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultAuth">VaultAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultProvider">VaultProvider</a>)
</p>
<p>
<p>VaultAuth is the configuration used to authenticate with a Vault server.
Only one of <code>tokenSecretRef</code>, <code>appRole</code>, <code>kubernetes</code>, <code>ldap</code>, <code>userPass</code>, <code>jwt</code> or <code>cert</code>
can be specified. A namespace to authenticate against can optionally be specified.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>namespace</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Name of the vault namespace to authenticate to. This can be different than the namespace your secret is in.
Namespaces is a set of features within Vault Enterprise that allows
Vault environments to support Secure Multi-tenancy. e.g: “ns1”.
More about namespaces can be found here <a href="https://www.vaultproject.io/docs/enterprise/namespaces">https://www.vaultproject.io/docs/enterprise/namespaces</a>
This will default to Vault.Namespace field if set, or empty otherwise</p>
</td>
</tr>
<tr>
<td>
<code>tokenSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>TokenSecretRef authenticates with Vault by presenting a token.</p>
</td>
</tr>
<tr>
<td>
<code>appRole</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAppRole">
VaultAppRole
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>AppRole authenticates with Vault using the App Role auth mechanism,
with the role and secret stored in a Kubernetes Secret resource.</p>
</td>
</tr>
<tr>
<td>
<code>kubernetes</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultKubernetesAuth">
VaultKubernetesAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Kubernetes authenticates with Vault by passing the ServiceAccount
token stored in the named Secret resource to the Vault server.</p>
</td>
</tr>
<tr>
<td>
<code>ldap</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultLdapAuth">
VaultLdapAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Ldap authenticates with Vault by passing username/password pair using
the LDAP authentication method</p>
</td>
</tr>
<tr>
<td>
<code>jwt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultJwtAuth">
VaultJwtAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Jwt authenticates with Vault by passing role and JWT token using the
JWT/OIDC authentication method</p>
</td>
</tr>
<tr>
<td>
<code>cert</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultCertAuth">
VaultCertAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Cert authenticates with TLS Certificates by passing client certificate, private key and ca certificate
Cert authentication method</p>
</td>
</tr>
<tr>
<td>
<code>iam</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultIamAuth">
VaultIamAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Iam authenticates with vault by passing a special AWS request signed with AWS IAM credentials
AWS IAM authentication method</p>
</td>
</tr>
<tr>
<td>
<code>userPass</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultUserPassAuth">
VaultUserPassAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>UserPass authenticates with Vault by passing username/password pair</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultAwsAuth">VaultAwsAuth
</h3>
<p>
<p>VaultAwsAuth tells the controller how to do authentication with aws.
Only one of secretRef or jwt can be specified.
if none is specified the controller will try to load credentials from its own service account assuming it is IRSA enabled.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAwsAuthSecretRef">
VaultAwsAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
<tr>
<td>
<code>jwt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAwsJWTAuth">
VaultAwsJWTAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultAwsAuthSecretRef">VaultAwsAuthSecretRef
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAwsAuth">VaultAwsAuth</a>,
<a href="#external-secrets.io/v1beta1.VaultIamAuth">VaultIamAuth</a>)
</p>
<p>
<p>VaultAWSAuthSecretRef holds secret references for AWS credentials
both AccessKeyID and SecretAccessKey must be defined in order to properly authenticate.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>accessKeyIDSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The AccessKeyID is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>secretAccessKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SecretAccessKey is used for authentication</p>
</td>
</tr>
<tr>
<td>
<code>sessionTokenSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>The SessionToken used for authentication
This must be defined if AccessKeyID and SecretAccessKey are temporary credentials
see: <a href="https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_use-resources.html">https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_use-resources.html</a></p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultAwsJWTAuth">VaultAwsJWTAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAwsAuth">VaultAwsAuth</a>,
<a href="#external-secrets.io/v1beta1.VaultIamAuth">VaultIamAuth</a>)
</p>
<p>
<p>Authenticate against AWS using service account tokens.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultCertAuth">VaultCertAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultJwtAuth authenticates with Vault using the JWT/OIDC authentication
method, with the role name and token stored in a Kubernetes Secret resource.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>clientCert</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>ClientCert is a certificate to authenticate using the Cert Vault
authentication method</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretRef to a key in a Secret resource containing client private key to
authenticate with Vault using the Cert authentication method</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultClientTLS">VaultClientTLS
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultProvider">VaultProvider</a>)
</p>
<p>
<p>VaultClientTLS is the configuration used for client side related TLS communication,
when the Vault server requires mutual authentication.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>certSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>CertSecretRef is a certificate added to the transport layer
when communicating with the Vault server.
If no key for the Secret is specified, external-secret will default to ‘tls.crt’.</p>
</td>
</tr>
<tr>
<td>
<code>keySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>KeySecretRef to a key in a Secret resource containing client private key
added to the transport layer when communicating with the Vault server.
If no key for the Secret is specified, external-secret will default to ‘tls.key’.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultIamAuth">VaultIamAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultIamAuth authenticates with Vault using the Vault’s AWS IAM authentication method. Refer: <a href="https://developer.hashicorp.com/vault/docs/auth/aws">https://developer.hashicorp.com/vault/docs/auth/aws</a></p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the AWS auth method is enabled in Vault, e.g: “aws”</p>
</td>
</tr>
<tr>
<td>
<code>region</code></br>
<em>
string
</em>
</td>
<td>
<p>AWS region</p>
</td>
</tr>
<tr>
<td>
<code>role</code></br>
<em>
string
</em>
</td>
<td>
<p>This is the AWS role to be assumed before talking to vault</p>
</td>
</tr>
<tr>
<td>
<code>vaultRole</code></br>
<em>
string
</em>
</td>
<td>
<p>Vault Role. In vault, a role describes an identity with a set of permissions, groups, or policies you want to attach a user of the secrets engine</p>
</td>
</tr>
<tr>
<td>
<code>externalID</code></br>
<em>
string
</em>
</td>
<td>
<p>AWS External ID set on assumed IAM roles</p>
</td>
</tr>
<tr>
<td>
<code>vaultAwsIamServerID</code></br>
<em>
string
</em>
</td>
<td>
<p>X-Vault-AWS-IAM-Server-ID is an additional header used by Vault IAM auth method to mitigate against different types of replay attacks. More details here: <a href="https://developer.hashicorp.com/vault/docs/auth/aws">https://developer.hashicorp.com/vault/docs/auth/aws</a></p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAwsAuthSecretRef">
VaultAwsAuthSecretRef
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Specify credentials in a Secret object</p>
</td>
</tr>
<tr>
<td>
<code>jwt</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAwsJWTAuth">
VaultAwsJWTAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Specify a service account with IRSA enabled</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultJwtAuth">VaultJwtAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultJwtAuth authenticates with Vault using the JWT/OIDC authentication
method, with the role name and a token stored in a Kubernetes Secret resource or
a Kubernetes service account token retrieved via <code>TokenRequest</code>.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the JWT authentication backend is mounted
in Vault, e.g: “jwt”</p>
</td>
</tr>
<tr>
<td>
<code>role</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Role is a JWT role to authenticate using the JWT/OIDC Vault
authentication method</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional SecretRef that refers to a key in a Secret resource containing JWT token to
authenticate with Vault using the JWT/OIDC authentication method.</p>
</td>
</tr>
<tr>
<td>
<code>kubernetesServiceAccountToken</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultKubernetesServiceAccountTokenAuth">
VaultKubernetesServiceAccountTokenAuth
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional ServiceAccountToken specifies the Kubernetes service account for which to request
a token for with the <code>TokenRequest</code> API.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultKVStoreVersion">VaultKVStoreVersion
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultProvider">VaultProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"v1"</p></td>
<td></td>
</tr><tr><td><p>"v2"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultKubernetesAuth">VaultKubernetesAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>Authenticate against Vault using a Kubernetes ServiceAccount token stored in
a Secret.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>mountPath</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the Kubernetes authentication backend is mounted in Vault, e.g:
“kubernetes”</p>
</td>
</tr>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional service account field containing the name of a kubernetes ServiceAccount.
If the service account is specified, the service account secret token JWT will be used
for authenticating with Vault. If the service account selector is not supplied,
the secretRef will be used instead.</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional secret field containing a Kubernetes ServiceAccount JWT used
for authenticating with Vault. If a name is specified without a key,
<code>token</code> is the default. If one is not specified, the one bound to
the controller will be used.</p>
</td>
</tr>
<tr>
<td>
<code>role</code></br>
<em>
string
</em>
</td>
<td>
<p>A required field containing the Vault Role to assume. A Role binds a
Kubernetes ServiceAccount with a set of Vault policies.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultKubernetesServiceAccountTokenAuth">VaultKubernetesServiceAccountTokenAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultJwtAuth">VaultJwtAuth</a>)
</p>
<p>
<p>VaultKubernetesServiceAccountTokenAuth authenticates with Vault using a temporary
Kubernetes service account token retrieved by the <code>TokenRequest</code> API.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>serviceAccountRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#ServiceAccountSelector">
External Secrets meta/v1.ServiceAccountSelector
</a>
</em>
</td>
<td>
<p>Service account field containing the name of a kubernetes ServiceAccount.</p>
</td>
</tr>
<tr>
<td>
<code>audiences</code></br>
<em>
[]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional audiences field that will be used to request a temporary Kubernetes service
account token for the service account referenced by <code>serviceAccountRef</code>.
Defaults to a single audience <code>vault</code> it not specified.
Deprecated: use serviceAccountRef.Audiences instead</p>
</td>
</tr>
<tr>
<td>
<code>expirationSeconds</code></br>
<em>
int64
</em>
</td>
<td>
<em>(Optional)</em>
<p>Optional expiration time in seconds that will be used to request a temporary
Kubernetes service account token for the service account referenced by
<code>serviceAccountRef</code>.
Deprecated: this will be removed in the future.
Defaults to 10 minutes.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultLdapAuth">VaultLdapAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultLdapAuth authenticates with Vault using the LDAP authentication method,
with the username and password stored in a Kubernetes Secret resource.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the LDAP authentication backend is mounted
in Vault, e.g: “ldap”</p>
</td>
</tr>
<tr>
<td>
<code>username</code></br>
<em>
string
</em>
</td>
<td>
<p>Username is a LDAP user name used to authenticate using the LDAP Vault
authentication method</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretRef to a key in a Secret resource containing password for the LDAP
user used to authenticate with Vault using the LDAP authentication
method</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultProvider">VaultProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>Configures an store to sync secrets using a HashiCorp Vault
KV backend.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultAuth">
VaultAuth
</a>
</em>
</td>
<td>
<p>Auth configures how secret-manager authenticates with the Vault server.</p>
</td>
</tr>
<tr>
<td>
<code>server</code></br>
<em>
string
</em>
</td>
<td>
<p>Server is the connection address for the Vault server, e.g: “<a href="https://vault.example.com:8200"">https://vault.example.com:8200”</a>.</p>
</td>
</tr>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Path is the mount path of the Vault KV backend endpoint, e.g:
“secret”. The v2 KV secret engine version specific “/data” path suffix
for fetching secrets from Vault is optional and will be appended
if not present in specified path.</p>
</td>
</tr>
<tr>
<td>
<code>version</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultKVStoreVersion">
VaultKVStoreVersion
</a>
</em>
</td>
<td>
<p>Version is the Vault KV secret engine version. This can be either “v1” or
“v2”. Version defaults to “v2”.</p>
</td>
</tr>
<tr>
<td>
<code>namespace</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Name of the vault namespace. Namespaces is a set of features within Vault Enterprise that allows
Vault environments to support Secure Multi-tenancy. e.g: “ns1”.
More about namespaces can be found here <a href="https://www.vaultproject.io/docs/enterprise/namespaces">https://www.vaultproject.io/docs/enterprise/namespaces</a></p>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
[]byte
</em>
</td>
<td>
<em>(Optional)</em>
<p>PEM encoded CA bundle used to validate Vault server certificate. Only used
if the Server URL is using HTTPS protocol. This parameter is ignored for
plain HTTP protocol connection. If not set the system root certificates
are used to validate the TLS connection.</p>
</td>
</tr>
<tr>
<td>
<code>tls</code></br>
<em>
<a href="#external-secrets.io/v1beta1.VaultClientTLS">
VaultClientTLS
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The configuration used for client side related TLS communication, when the Vault server
requires mutual authentication. Only used if the Server URL is using HTTPS protocol.
This parameter is ignored for plain HTTP protocol connection.
It’s worth noting this configuration is different from the “TLS certificates auth method”,
which is available under the <code>auth.cert</code> section.</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.CAProvider">
CAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The provider for the CA bundle to use to validate Vault server certificate.</p>
</td>
</tr>
<tr>
<td>
<code>readYourWrites</code></br>
<em>
bool
</em>
</td>
<td>
<em>(Optional)</em>
<p>ReadYourWrites ensures isolated read-after-write semantics by
providing discovered cluster replication states in each request.
More information about eventual consistency in Vault can be found here
<a href="https://www.vaultproject.io/docs/enterprise/consistency">https://www.vaultproject.io/docs/enterprise/consistency</a></p>
</td>
</tr>
<tr>
<td>
<code>forwardInconsistent</code></br>
<em>
bool
</em>
</td>
<td>
<em>(Optional)</em>
<p>ForwardInconsistent tells Vault to forward read-after-write requests to the Vault
leader instead of simply retrying within a loop. This can increase performance if
the option is enabled serverside.
<a href="https://www.vaultproject.io/docs/configuration/replication#allow_forwarding_via_header">https://www.vaultproject.io/docs/configuration/replication#allow_forwarding_via_header</a></p>
</td>
</tr>
<tr>
<td>
<code>headers</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Headers to be added in Vault request</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.VaultUserPassAuth">VaultUserPassAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.VaultAuth">VaultAuth</a>)
</p>
<p>
<p>VaultUserPassAuth authenticates with Vault using UserPass authentication method,
with the username and password stored in a Kubernetes Secret resource.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>path</code></br>
<em>
string
</em>
</td>
<td>
<p>Path where the UserPassword authentication backend is mounted
in Vault, e.g: “user”</p>
</td>
</tr>
<tr>
<td>
<code>username</code></br>
<em>
string
</em>
</td>
<td>
<p>Username is a user name used to authenticate using the UserPass Vault
authentication method</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>SecretRef to a key in a Secret resource containing password for the
user used to authenticate with Vault using the UserPass authentication
method</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.WebhookCAProvider">WebhookCAProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.WebhookProvider">WebhookProvider</a>)
</p>
<p>
<p>Defines a location to fetch the cert for the webhook provider from.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>type</code></br>
<em>
<a href="#external-secrets.io/v1beta1.WebhookCAProviderType">
WebhookCAProviderType
</a>
</em>
</td>
<td>
<p>The type of provider to use such as “Secret”, or “ConfigMap”.</p>
</td>
</tr>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>The name of the object located at the provider type.</p>
</td>
</tr>
<tr>
<td>
<code>key</code></br>
<em>
string
</em>
</td>
<td>
<p>The key where the CA certificate can be found in the Secret or ConfigMap.</p>
</td>
</tr>
<tr>
<td>
<code>namespace</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>The namespace the Provider type is in.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.WebhookCAProviderType">WebhookCAProviderType
(<code>string</code> alias)</p></h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.WebhookCAProvider">WebhookCAProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Value</th>
<th>Description</th>
</tr>
</thead>
<tbody><tr><td><p>"ConfigMap"</p></td>
<td></td>
</tr><tr><td><p>"Secret"</p></td>
<td></td>
</tr></tbody>
</table>
<h3 id="external-secrets.io/v1beta1.WebhookProvider">WebhookProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>AkeylessProvider Configures an store to sync secrets using Akeyless KV.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>method</code></br>
<em>
string
</em>
</td>
<td>
<p>Webhook Method</p>
</td>
</tr>
<tr>
<td>
<code>url</code></br>
<em>
string
</em>
</td>
<td>
<p>Webhook url to call</p>
</td>
</tr>
<tr>
<td>
<code>headers</code></br>
<em>
map[string]string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Headers</p>
</td>
</tr>
<tr>
<td>
<code>body</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Body</p>
</td>
</tr>
<tr>
<td>
<code>timeout</code></br>
<em>
<a href="https://pkg.go.dev/k8s.io/apimachinery/pkg/apis/meta/v1#Duration">
Kubernetes meta/v1.Duration
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Timeout</p>
</td>
</tr>
<tr>
<td>
<code>result</code></br>
<em>
<a href="#external-secrets.io/v1beta1.WebhookResult">
WebhookResult
</a>
</em>
</td>
<td>
<p>Result formatting</p>
</td>
</tr>
<tr>
<td>
<code>secrets</code></br>
<em>
<a href="#external-secrets.io/v1beta1.WebhookSecret">
[]WebhookSecret
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>Secrets to fill in templates
These secrets will be passed to the templating function as key value pairs under the given name</p>
</td>
</tr>
<tr>
<td>
<code>caBundle</code></br>
<em>
[]byte
</em>
</td>
<td>
<em>(Optional)</em>
<p>PEM encoded CA bundle used to validate webhook server certificate. Only used
if the Server URL is using HTTPS protocol. This parameter is ignored for
plain HTTP protocol connection. If not set the system root certificates
are used to validate the TLS connection.</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.WebhookCAProvider">
WebhookCAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The provider for the CA bundle to use to validate webhook server certificate.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.WebhookResult">WebhookResult
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.WebhookProvider">WebhookProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>jsonPath</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Json path of return value</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.WebhookSecret">WebhookSecret
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.WebhookProvider">WebhookProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>name</code></br>
<em>
string
</em>
</td>
<td>
<p>Name of this secret in templates</p>
</td>
</tr>
<tr>
<td>
<code>secretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<p>Secret ref to fill in credentials</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexCertificateManagerAuth">YandexCertificateManagerAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.YandexCertificateManagerProvider">YandexCertificateManagerProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>authorizedKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The authorized key used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexCertificateManagerCAProvider">YandexCertificateManagerCAProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.YandexCertificateManagerProvider">YandexCertificateManagerProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>certSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexCertificateManagerProvider">YandexCertificateManagerProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>YandexCertificateManagerProvider Configures a store to sync secrets using the Yandex Certificate Manager provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiEndpoint</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Yandex.Cloud API endpoint (e.g. ‘api.cloud.yandex.net:443’)</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexCertificateManagerAuth">
YandexCertificateManagerAuth
</a>
</em>
</td>
<td>
<p>Auth defines the information necessary to authenticate against Yandex Certificate Manager</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexCertificateManagerCAProvider">
YandexCertificateManagerCAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The provider for the CA bundle to use to validate Yandex.Cloud server certificate.</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexLockboxAuth">YandexLockboxAuth
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.YandexLockboxProvider">YandexLockboxProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>authorizedKeySecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The authorized key used for authentication</p>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexLockboxCAProvider">YandexLockboxCAProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.YandexLockboxProvider">YandexLockboxProvider</a>)
</p>
<p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>certSecretRef</code></br>
<em>
<a href="https://pkg.go.dev/github.com/external-secrets/external-secrets/apis/meta/v1#SecretKeySelector">
External Secrets meta/v1.SecretKeySelector
</a>
</em>
</td>
<td>
</td>
</tr>
</tbody>
</table>
<h3 id="external-secrets.io/v1beta1.YandexLockboxProvider">YandexLockboxProvider
</h3>
<p>
(<em>Appears on:</em>
<a href="#external-secrets.io/v1beta1.SecretStoreProvider">SecretStoreProvider</a>)
</p>
<p>
<p>YandexLockboxProvider Configures a store to sync secrets using the Yandex Lockbox provider.</p>
</p>
<table>
<thead>
<tr>
<th>Field</th>
<th>Description</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<code>apiEndpoint</code></br>
<em>
string
</em>
</td>
<td>
<em>(Optional)</em>
<p>Yandex.Cloud API endpoint (e.g. ‘api.cloud.yandex.net:443’)</p>
</td>
</tr>
<tr>
<td>
<code>auth</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexLockboxAuth">
YandexLockboxAuth
</a>
</em>
</td>
<td>
<p>Auth defines the information necessary to authenticate against Yandex Lockbox</p>
</td>
</tr>
<tr>
<td>
<code>caProvider</code></br>
<em>
<a href="#external-secrets.io/v1beta1.YandexLockboxCAProvider">
YandexLockboxCAProvider
</a>
</em>
</td>
<td>
<em>(Optional)</em>
<p>The provider for the CA bundle to use to validate Yandex.Cloud server certificate.</p>
</td>
</tr>
</tbody>
</table>
<hr/>
<p><em>
Generated with <code>gen-crd-api-reference-docs</code>.
</em></p> | external secrets | p Packages p ul li a href external secrets io 2fv1beta1 external secrets io v1beta1 a li ul h2 id external secrets io v1beta1 external secrets io v1beta1 h2 p p Package v1beta1 contains resources for external secrets p p Resource Types ul ul h3 id external secrets io v1beta1 AWSAuth AWSAuth h3 p em Appears on em a href external secrets io v1beta1 AWSProvider AWSProvider a p p p AWSAuth tells the controller how to do authentication with aws Only one of secretRef or jwt can be specified if none is specified the controller will load credentials using the aws sdk defaults p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 AWSAuthSecretRef AWSAuthSecretRef a em td td em Optional em td tr tr td code jwt code br em a href external secrets io v1beta1 AWSJWTAuth AWSJWTAuth a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 AWSAuthSecretRef AWSAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 AWSAuth AWSAuth a p p p AWSAuthSecretRef holds secret references for AWS credentials both AccessKeyID and SecretAccessKey must be defined in order to properly authenticate p p table thead tr th Field th th Description th tr thead tbody tr td code accessKeyIDSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The AccessKeyID is used for authentication p td tr tr td code secretAccessKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SecretAccessKey is used for authentication p td tr tr td code sessionTokenSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SessionToken used for authentication This must be defined if AccessKeyID and SecretAccessKey are temporary credentials see a href https docs aws amazon com IAM latest UserGuide id credentials temp use resources html https docs aws amazon com IAM latest UserGuide id credentials temp use resources html a p td tr tbody table h3 id external secrets io v1beta1 AWSJWTAuth AWSJWTAuth h3 p em Appears on em a href external secrets io v1beta1 AWSAuth AWSAuth a p p p Authenticate against AWS using service account tokens p p table thead tr th Field th th Description th tr thead tbody tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td td tr tbody table h3 id external secrets io v1beta1 AWSProvider AWSProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p AWSProvider configures a store to sync secrets with AWS p p table thead tr th Field th th Description th tr thead tbody tr td code service code br em a href external secrets io v1beta1 AWSServiceType AWSServiceType a em td td p Service defines which service should be used to fetch the secrets p td tr tr td code auth code br em a href external secrets io v1beta1 AWSAuth AWSAuth a em td td em Optional em p Auth defines the information necessary to authenticate against AWS if not set aws sdk will infer credentials from your environment see a href https docs aws amazon com sdk for go v1 developer guide configuring sdk html specifying credentials https docs aws amazon com sdk for go v1 developer guide configuring sdk html specifying credentials a p td tr tr td code role code br em string em td td em Optional em p Role is a Role ARN which the provider will assume p td tr tr td code region code br em string em td td p AWS Region to be used for the provider p td tr tr td code additionalRoles code br em string em td td em Optional em p AdditionalRoles is a chained list of Role ARNs which the provider will sequentially assume before assuming the Role p td tr tr td code externalID code br em string em td td p AWS External ID set on assumed IAM roles p td tr tr td code sessionTags code br em a href external secrets io v1beta1 github com external secrets external secrets apis externalsecrets v1beta1 Tag github com external secrets external secrets apis externalsecrets v1beta1 Tag a em td td em Optional em p AWS STS assume role session tags p td tr tr td code secretsManager code br em a href external secrets io v1beta1 SecretsManager SecretsManager a em td td em Optional em p SecretsManager defines how the provider behaves when interacting with AWS SecretsManager p td tr tr td code transitiveTagKeys code br em string em td td em Optional em p AWS STS assume role transitive session tags Required when multiple rules are used with the provider p td tr tr td code prefix code br em string em td td em Optional em p Prefix adds a prefix to all retrieved values p td tr tbody table h3 id external secrets io v1beta1 AWSServiceType AWSServiceType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 AWSProvider AWSProvider a p p p AWSServiceType is a enum that defines the service API that is used to fetch the secrets p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ParameterStore 34 p td td p AWSServiceParameterStore is the AWS SystemsManager ParameterStore service see a href https docs aws amazon com systems manager latest userguide systems manager parameter store html https docs aws amazon com systems manager latest userguide systems manager parameter store html a p td tr tr td p 34 SecretsManager 34 p td td p AWSServiceSecretsManager is the AWS SecretsManager service see a href https docs aws amazon com secretsmanager latest userguide intro html https docs aws amazon com secretsmanager latest userguide intro html a p td tr tbody table h3 id external secrets io v1beta1 AkeylessAuth AkeylessAuth h3 p em Appears on em a href external secrets io v1beta1 AkeylessProvider AkeylessProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 AkeylessAuthSecretRef AkeylessAuthSecretRef a em td td em Optional em p Reference to a Secret that contains the details to authenticate with Akeyless p td tr tr td code kubernetesAuth code br em a href external secrets io v1beta1 AkeylessKubernetesAuth AkeylessKubernetesAuth a em td td em Optional em p Kubernetes authenticates with Akeyless by passing the ServiceAccount token stored in the named Secret resource p td tr tbody table h3 id external secrets io v1beta1 AkeylessAuthSecretRef AkeylessAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 AkeylessAuth AkeylessAuth a p p p AkeylessAuthSecretRef AKEYLESS ACCESS TYPE PARAM AZURE OBJ ID OR GCP AUDIENCE OR ACCESS KEY OR KUB CONFIG NAME p p table thead tr th Field th th Description th tr thead tbody tr td code accessID code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SecretAccessID is used for authentication p td tr tr td code accessType code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code accessTypeParam code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 AkeylessKubernetesAuth AkeylessKubernetesAuth h3 p em Appears on em a href external secrets io v1beta1 AkeylessAuth AkeylessAuth a p p p Authenticate with Kubernetes ServiceAccount token stored p p table thead tr th Field th th Description th tr thead tbody tr td code accessID code br em string em td td p the Akeyless Kubernetes auth method access id p td tr tr td code k8sConfName code br em string em td td p Kubernetes auth configuration name in Akeyless Gateway p td tr tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p Optional service account field containing the name of a kubernetes ServiceAccount If the service account is specified the service account secret token JWT will be used for authenticating with Akeyless If the service account selector is not supplied the secretRef will be used instead p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Optional secret field containing a Kubernetes ServiceAccount JWT used for authenticating with Akeyless If a name is specified without a key code token code is the default If one is not specified the one bound to the controller will be used p td tr tbody table h3 id external secrets io v1beta1 AkeylessProvider AkeylessProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p AkeylessProvider Configures an store to sync secrets using Akeyless KV p p table thead tr th Field th th Description th tr thead tbody tr td code akeylessGWApiURL code br em string em td td p Akeyless GW API Url from which the secrets to be fetched from p td tr tr td code authSecretRef code br em a href external secrets io v1beta1 AkeylessAuth AkeylessAuth a em td td p Auth configures how the operator authenticates with Akeyless p td tr tr td code caBundle code br em byte em td td em Optional em p PEM base64 encoded CA bundle used to validate Akeyless Gateway certificate Only used if the AkeylessGWApiURL URL is using HTTPS protocol If not set the system root certificates are used to validate the TLS connection p td tr tr td code caProvider code br em a href external secrets io v1beta1 CAProvider CAProvider a em td td em Optional em p The provider for the CA bundle to use to validate Akeyless Gateway certificate p td tr tbody table h3 id external secrets io v1beta1 AlibabaAuth AlibabaAuth h3 p em Appears on em a href external secrets io v1beta1 AlibabaProvider AlibabaProvider a p p p AlibabaAuth contains a secretRef for credentials p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 AlibabaAuthSecretRef AlibabaAuthSecretRef a em td td em Optional em td tr tr td code rrsa code br em a href external secrets io v1beta1 AlibabaRRSAAuth AlibabaRRSAAuth a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 AlibabaAuthSecretRef AlibabaAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 AlibabaAuth AlibabaAuth a p p p AlibabaAuthSecretRef holds secret references for Alibaba credentials p p table thead tr th Field th th Description th tr thead tbody tr td code accessKeyIDSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The AccessKeyID is used for authentication p td tr tr td code accessKeySecretSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The AccessKeySecret is used for authentication p td tr tbody table h3 id external secrets io v1beta1 AlibabaProvider AlibabaProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p AlibabaProvider configures a store to sync secrets using the Alibaba Secret Manager provider p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 AlibabaAuth AlibabaAuth a em td td td tr tr td code regionID code br em string em td td p Alibaba Region to be used for the provider p td tr tbody table h3 id external secrets io v1beta1 AlibabaRRSAAuth AlibabaRRSAAuth h3 p em Appears on em a href external secrets io v1beta1 AlibabaAuth AlibabaAuth a p p p Authenticate against Alibaba using RRSA p p table thead tr th Field th th Description th tr thead tbody tr td code oidcProviderArn code br em string em td td td tr tr td code oidcTokenFilePath code br em string em td td td tr tr td code roleArn code br em string em td td td tr tr td code sessionName code br em string em td td td tr tbody table h3 id external secrets io v1beta1 AzureAuthType AzureAuthType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 AzureKVProvider AzureKVProvider a p p p AuthType describes how to authenticate to the Azure Keyvault Only one of the following auth types may be specified If none of the following auth type is specified the default one is ServicePrincipal p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ManagedIdentity 34 p td td p Using Managed Identity to authenticate Used with aad pod identity installed in the cluster p td tr tr td p 34 ServicePrincipal 34 p td td p Using service principal to authenticate which needs a tenantId a clientId and a clientSecret p td tr tr td p 34 WorkloadIdentity 34 p td td p Using Workload Identity service accounts to authenticate p td tr tbody table h3 id external secrets io v1beta1 AzureEnvironmentType AzureEnvironmentType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 AzureKVProvider AzureKVProvider a p p p AzureEnvironmentType specifies the Azure cloud environment endpoints to use for connecting and authenticating with Azure By default it points to the public cloud AAD endpoint The following endpoints are available also see here a href https github com Azure go autorest blob main autorest azure environments go L152 https github com Azure go autorest blob main autorest azure environments go L152 a PublicCloud USGovernmentCloud ChinaCloud GermanCloud p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ChinaCloud 34 p td td td tr tr td p 34 GermanCloud 34 p td td td tr tr td p 34 PublicCloud 34 p td td td tr tr td p 34 USGovernmentCloud 34 p td td td tr tbody table h3 id external secrets io v1beta1 AzureKVAuth AzureKVAuth h3 p em Appears on em a href external secrets io v1beta1 AzureKVProvider AzureKVProvider a p p p Configuration used to authenticate with Azure p p table thead tr th Field th th Description th tr thead tbody tr td code clientId code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The Azure clientId of the service principle or managed identity used for authentication p td tr tr td code tenantId code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The Azure tenantId of the managed identity used for authentication p td tr tr td code clientSecret code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The Azure ClientSecret of the service principle used for authentication p td tr tr td code clientCertificate code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The Azure ClientCertificate of the service principle used for authentication p td tr tbody table h3 id external secrets io v1beta1 AzureKVProvider AzureKVProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures an store to sync secrets using Azure KV p p table thead tr th Field th th Description th tr thead tbody tr td code authType code br em a href external secrets io v1beta1 AzureAuthType AzureAuthType a em td td em Optional em p Auth type defines how to authenticate to the keyvault service Valid values are ldquo ServicePrincipal rdquo default Using a service principal tenantId clientId clientSecret ldquo ManagedIdentity rdquo Using Managed Identity assigned to the pod see aad pod identity p td tr tr td code vaultUrl code br em string em td td p Vault Url from which the secrets to be fetched from p td tr tr td code tenantId code br em string em td td em Optional em p TenantID configures the Azure Tenant to send requests to Required for ServicePrincipal auth type Optional for WorkloadIdentity p td tr tr td code environmentType code br em a href external secrets io v1beta1 AzureEnvironmentType AzureEnvironmentType a em td td p EnvironmentType specifies the Azure cloud environment endpoints to use for connecting and authenticating with Azure By default it points to the public cloud AAD endpoint The following endpoints are available also see here a href https github com Azure go autorest blob main autorest azure environments go L152 https github com Azure go autorest blob main autorest azure environments go L152 a PublicCloud USGovernmentCloud ChinaCloud GermanCloud p td tr tr td code authSecretRef code br em a href external secrets io v1beta1 AzureKVAuth AzureKVAuth a em td td em Optional em p Auth configures how the operator authenticates with Azure Required for ServicePrincipal auth type Optional for WorkloadIdentity p td tr tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p ServiceAccountRef specified the service account that should be used when authenticating with WorkloadIdentity p td tr tr td code identityId code br em string em td td em Optional em p If multiple Managed Identity is assigned to the pod you can select the one to be used p td tr tbody table h3 id external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef h3 p em Appears on em a href external secrets io v1beta1 BeyondtrustAuth BeyondtrustAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code value code br em string em td td em Optional em p Value can be specified directly to set a value without using a secret p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p SecretRef references a key in a secret that will be used as value p td tr tbody table h3 id external secrets io v1beta1 BeyondtrustAuth BeyondtrustAuth h3 p em Appears on em a href external secrets io v1beta1 BeyondtrustProvider BeyondtrustProvider a p p p Configures a store to sync secrets using BeyondTrust Password Safe p p table thead tr th Field th th Description th tr thead tbody tr td code apiKey code br em a href external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef a em td td p APIKey If not provided then ClientID ClientSecret become required p td tr tr td code clientId code br em a href external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef a em td td p ClientID is the API OAuth Client ID p td tr tr td code clientSecret code br em a href external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef a em td td p ClientSecret is the API OAuth Client Secret p td tr tr td code certificate code br em a href external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef a em td td p Certificate cert pem for use when authenticating with an OAuth client Id using a Client Certificate p td tr tr td code certificateKey code br em a href external secrets io v1beta1 BeyondTrustProviderSecretRef BeyondTrustProviderSecretRef a em td td p Certificate private key key pem For use when authenticating with an OAuth client Id p td tr tbody table h3 id external secrets io v1beta1 BeyondtrustProvider BeyondtrustProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 BeyondtrustAuth BeyondtrustAuth a em td td p Auth configures how the operator authenticates with Beyondtrust p td tr tr td code server code br em a href external secrets io v1beta1 BeyondtrustServer BeyondtrustServer a em td td p Auth configures how API server works p td tr tbody table h3 id external secrets io v1beta1 BeyondtrustServer BeyondtrustServer h3 p em Appears on em a href external secrets io v1beta1 BeyondtrustProvider BeyondtrustProvider a p p p Configures a store to sync secrets using BeyondTrust Password Safe p p table thead tr th Field th th Description th tr thead tbody tr td code apiUrl code br em string em td td td tr tr td code retrievalType code br em string em td td p The secret retrieval type SECRET Secrets Safe credential text file MANAGED ACCOUNT Password Safe account associated with a system p td tr tr td code separator code br em string em td td p A character that separates the folder names p td tr tr td code verifyCA code br em bool em td td td tr tr td code clientTimeOutSeconds code br em int em td td p Timeout specifies a time limit for requests made by this Client The timeout includes connection time any redirects and reading the response body Defaults to 45 seconds p td tr tbody table h3 id external secrets io v1beta1 BitwardenSecretsManagerAuth BitwardenSecretsManagerAuth h3 p em Appears on em a href external secrets io v1beta1 BitwardenSecretsManagerProvider BitwardenSecretsManagerProvider a p p p BitwardenSecretsManagerAuth contains the ref to the secret that contains the machine account token p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 BitwardenSecretsManagerSecretRef BitwardenSecretsManagerSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 BitwardenSecretsManagerProvider BitwardenSecretsManagerProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p BitwardenSecretsManagerProvider configures a store to sync secrets with a Bitwarden Secrets Manager instance p p table thead tr th Field th th Description th tr thead tbody tr td code apiURL code br em string em td td td tr tr td code identityURL code br em string em td td td tr tr td code bitwardenServerSDKURL code br em string em td td td tr tr td code caBundle code br em string em td td em Optional em p Base64 encoded certificate for the bitwarden server sdk The sdk MUST run with HTTPS to make sure no MITM attack can be performed p td tr tr td code caProvider code br em a href external secrets io v1beta1 CAProvider CAProvider a em td td em Optional em p see a href https external secrets io latest spec external secrets io v1alpha1 CAProvider https external secrets io latest spec external secrets io v1alpha1 CAProvider a p td tr tr td code organizationID code br em string em td td p OrganizationID determines which organization this secret store manages p td tr tr td code projectID code br em string em td td p ProjectID determines which project this secret store manages p td tr tr td code auth code br em a href external secrets io v1beta1 BitwardenSecretsManagerAuth BitwardenSecretsManagerAuth a em td td p Auth configures how secret manager authenticates with a bitwarden machine account instance Make sure that the token being used has permissions on the given secret p td tr tbody table h3 id external secrets io v1beta1 BitwardenSecretsManagerSecretRef BitwardenSecretsManagerSecretRef h3 p em Appears on em a href external secrets io v1beta1 BitwardenSecretsManagerAuth BitwardenSecretsManagerAuth a p p p BitwardenSecretsManagerSecretRef contains the credential ref to the bitwarden instance p p table thead tr th Field th th Description th tr thead tbody tr td code credentials code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p AccessToken used for the bitwarden instance p td tr tbody table h3 id external secrets io v1beta1 CAProvider CAProvider h3 p em Appears on em a href external secrets io v1beta1 AkeylessProvider AkeylessProvider a a href external secrets io v1beta1 BitwardenSecretsManagerProvider BitwardenSecretsManagerProvider a a href external secrets io v1beta1 ConjurProvider ConjurProvider a a href external secrets io v1beta1 KubernetesServer KubernetesServer a a href external secrets io v1beta1 VaultProvider VaultProvider a p p p Used to provide custom certificate authority CA certificates for a secret store The CAProvider points to a Secret or ConfigMap resource that contains a PEM encoded certificate p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href external secrets io v1beta1 CAProviderType CAProviderType a em td td p The type of provider to use such as ldquo Secret rdquo or ldquo ConfigMap rdquo p td tr tr td code name code br em string em td td p The name of the object located at the provider type p td tr tr td code key code br em string em td td p The key where the CA certificate can be found in the Secret or ConfigMap p td tr tr td code namespace code br em string em td td em Optional em p The namespace the Provider type is in Can only be defined when used in a ClusterSecretStore p td tr tbody table h3 id external secrets io v1beta1 CAProviderType CAProviderType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 CAProvider CAProvider a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ConfigMap 34 p td td td tr tr td p 34 Secret 34 p td td td tr tbody table h3 id external secrets io v1beta1 CertAuth CertAuth h3 p em Appears on em a href external secrets io v1beta1 KubernetesAuth KubernetesAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code clientCert code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code clientKey code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 ChefAuth ChefAuth h3 p em Appears on em a href external secrets io v1beta1 ChefProvider ChefProvider a p p p ChefAuth contains a secretRef for credentials p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 ChefAuthSecretRef ChefAuthSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 ChefAuthSecretRef ChefAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 ChefAuth ChefAuth a p p p ChefAuthSecretRef holds secret references for chef server login credentials p p table thead tr th Field th th Description th tr thead tbody tr td code privateKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretKey is the Signing Key in PEM format used for authentication p td tr tbody table h3 id external secrets io v1beta1 ChefProvider ChefProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p ChefProvider configures a store to sync secrets using basic chef server connection credentials p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 ChefAuth ChefAuth a em td td p Auth defines the information necessary to authenticate against chef Server p td tr tr td code username code br em string em td td p UserName should be the user ID on the chef server p td tr tr td code serverUrl code br em string em td td p ServerURL is the chef server URL used to connect to If using orgs you should include your org in the url and terminate the url with a ldquo rdquo p td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecret ClusterExternalSecret h3 p p ClusterExternalSecret is the Schema for the clusterexternalsecrets API p p table thead tr th Field th th Description th tr thead tbody tr td code metadata code br em a href https kubernetes io docs reference generated kubernetes api v1 25 objectmeta v1 meta Kubernetes meta v1 ObjectMeta a em td td Refer to the Kubernetes API documentation for the fields of the code metadata code field td tr tr td code spec code br em a href external secrets io v1beta1 ClusterExternalSecretSpec ClusterExternalSecretSpec a em td td br br table tr td code externalSecretSpec code br em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a em td td p The spec for the ExternalSecrets to be created p td tr tr td code externalSecretName code br em string em td td em Optional em p The name of the external secrets to be created Defaults to the name of the ClusterExternalSecret p td tr tr td code externalSecretMetadata code br em a href external secrets io v1beta1 ExternalSecretMetadata ExternalSecretMetadata a em td td em Optional em p The metadata of the external secrets to be created p td tr tr td code namespaceSelector code br em a href https kubernetes io docs reference generated kubernetes api v1 25 labelselector v1 meta Kubernetes meta v1 LabelSelector a em td td em Optional em p The labels to select by to find the Namespaces to create the ExternalSecrets in Deprecated Use NamespaceSelectors instead p td tr tr td code namespaceSelectors code br em a href https kubernetes io docs reference generated kubernetes api v1 25 k8s io apimachinery pkg apis meta v1 labelselector k8s io apimachinery pkg apis meta v1 LabelSelector a em td td em Optional em p A list of labels to select by to find the Namespaces to create the ExternalSecrets in The selectors are ORed p td tr tr td code namespaces code br em string em td td em Optional em p Choose namespaces by name This field is ORed with anything that NamespaceSelectors ends up choosing p td tr tr td code refreshTime code br em a href https pkg go dev k8s io apimachinery pkg apis meta v1 Duration Kubernetes meta v1 Duration a em td td p The time in which the controller should reconcile its objects and recheck namespaces for labels p td tr table td tr tr td code status code br em a href external secrets io v1beta1 ClusterExternalSecretStatus ClusterExternalSecretStatus a em td td td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecretConditionType ClusterExternalSecretConditionType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecretStatusCondition ClusterExternalSecretStatusCondition a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Ready 34 p td td td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecretNamespaceFailure ClusterExternalSecretNamespaceFailure h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecretStatus ClusterExternalSecretStatus a p p p ClusterExternalSecretNamespaceFailure represents a failed namespace deployment and it rsquo s reason p p table thead tr th Field th th Description th tr thead tbody tr td code namespace code br em string em td td p Namespace is the namespace that failed when trying to apply an ExternalSecret p td tr tr td code reason code br em string em td td em Optional em p Reason is why the ExternalSecret failed to apply to the namespace p td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecretSpec ClusterExternalSecretSpec h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecret ClusterExternalSecret a p p p ClusterExternalSecretSpec defines the desired state of ClusterExternalSecret p p table thead tr th Field th th Description th tr thead tbody tr td code externalSecretSpec code br em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a em td td p The spec for the ExternalSecrets to be created p td tr tr td code externalSecretName code br em string em td td em Optional em p The name of the external secrets to be created Defaults to the name of the ClusterExternalSecret p td tr tr td code externalSecretMetadata code br em a href external secrets io v1beta1 ExternalSecretMetadata ExternalSecretMetadata a em td td em Optional em p The metadata of the external secrets to be created p td tr tr td code namespaceSelector code br em a href https kubernetes io docs reference generated kubernetes api v1 25 labelselector v1 meta Kubernetes meta v1 LabelSelector a em td td em Optional em p The labels to select by to find the Namespaces to create the ExternalSecrets in Deprecated Use NamespaceSelectors instead p td tr tr td code namespaceSelectors code br em a href https kubernetes io docs reference generated kubernetes api v1 25 k8s io apimachinery pkg apis meta v1 labelselector k8s io apimachinery pkg apis meta v1 LabelSelector a em td td em Optional em p A list of labels to select by to find the Namespaces to create the ExternalSecrets in The selectors are ORed p td tr tr td code namespaces code br em string em td td em Optional em p Choose namespaces by name This field is ORed with anything that NamespaceSelectors ends up choosing p td tr tr td code refreshTime code br em a href https pkg go dev k8s io apimachinery pkg apis meta v1 Duration Kubernetes meta v1 Duration a em td td p The time in which the controller should reconcile its objects and recheck namespaces for labels p td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecretStatus ClusterExternalSecretStatus h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecret ClusterExternalSecret a p p p ClusterExternalSecretStatus defines the observed state of ClusterExternalSecret p p table thead tr th Field th th Description th tr thead tbody tr td code externalSecretName code br em string em td td p ExternalSecretName is the name of the ExternalSecrets created by the ClusterExternalSecret p td tr tr td code failedNamespaces code br em a href external secrets io v1beta1 ClusterExternalSecretNamespaceFailure ClusterExternalSecretNamespaceFailure a em td td em Optional em p Failed namespaces are the namespaces that failed to apply an ExternalSecret p td tr tr td code provisionedNamespaces code br em string em td td em Optional em p ProvisionedNamespaces are the namespaces where the ClusterExternalSecret has secrets p td tr tr td code conditions code br em a href external secrets io v1beta1 ClusterExternalSecretStatusCondition ClusterExternalSecretStatusCondition a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ClusterExternalSecretStatusCondition ClusterExternalSecretStatusCondition h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecretStatus ClusterExternalSecretStatus a p p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href external secrets io v1beta1 ClusterExternalSecretConditionType ClusterExternalSecretConditionType a em td td td tr tr td code status code br em a href https kubernetes io docs reference generated kubernetes api v1 25 conditionstatus v1 core Kubernetes core v1 ConditionStatus a em td td td tr tr td code message code br em string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ClusterSecretStore ClusterSecretStore h3 p p ClusterSecretStore represents a secure external location for storing secrets which can be referenced as part of code storeRef code fields p p table thead tr th Field th th Description th tr thead tbody tr td code metadata code br em a href https kubernetes io docs reference generated kubernetes api v1 25 objectmeta v1 meta Kubernetes meta v1 ObjectMeta a em td td Refer to the Kubernetes API documentation for the fields of the code metadata code field td tr tr td code spec code br em a href external secrets io v1beta1 SecretStoreSpec SecretStoreSpec a em td td br br table tr td code controller code br em string em td td em Optional em p Used to select the correct ESO controller think ingress ingressClassName The ESO controller is instantiated with a specific controller name and filters ES based on this property p td tr tr td code provider code br em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a em td td p Used to configure the provider Only one provider may be set p td tr tr td code retrySettings code br em a href external secrets io v1beta1 SecretStoreRetrySettings SecretStoreRetrySettings a em td td em Optional em p Used to configure http retries if failed p td tr tr td code refreshInterval code br em int em td td em Optional em p Used to configure store refresh interval in seconds Empty or 0 will default to the controller config p td tr tr td code conditions code br em a href external secrets io v1beta1 ClusterSecretStoreCondition ClusterSecretStoreCondition a em td td em Optional em p Used to constraint a ClusterSecretStore to specific namespaces Relevant only to ClusterSecretStore p td tr table td tr tr td code status code br em a href external secrets io v1beta1 SecretStoreStatus SecretStoreStatus a em td td td tr tbody table h3 id external secrets io v1beta1 ClusterSecretStoreCondition ClusterSecretStoreCondition h3 p em Appears on em a href external secrets io v1beta1 SecretStoreSpec SecretStoreSpec a p p p ClusterSecretStoreCondition describes a condition by which to choose namespaces to process ExternalSecrets in for a ClusterSecretStore instance p p table thead tr th Field th th Description th tr thead tbody tr td code namespaceSelector code br em a href https kubernetes io docs reference generated kubernetes api v1 25 labelselector v1 meta Kubernetes meta v1 LabelSelector a em td td em Optional em p Choose namespace using a labelSelector p td tr tr td code namespaces code br em string em td td em Optional em p Choose namespaces by name p td tr tr td code namespaceRegexes code br em string em td td em Optional em p Choose namespaces by using regex matching p td tr tbody table h3 id external secrets io v1beta1 ConjurAPIKey ConjurAPIKey h3 p em Appears on em a href external secrets io v1beta1 ConjurAuth ConjurAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code account code br em string em td td td tr tr td code userRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code apiKeyRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 ConjurAuth ConjurAuth h3 p em Appears on em a href external secrets io v1beta1 ConjurProvider ConjurProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code apikey code br em a href external secrets io v1beta1 ConjurAPIKey ConjurAPIKey a em td td em Optional em td tr tr td code jwt code br em a href external secrets io v1beta1 ConjurJWT ConjurJWT a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ConjurJWT ConjurJWT h3 p em Appears on em a href external secrets io v1beta1 ConjurAuth ConjurAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code account code br em string em td td td tr tr td code serviceID code br em string em td td p The conjur authn jwt webservice id p td tr tr td code hostId code br em string em td td em Optional em p Optional HostID for JWT authentication This may be used depending on how the Conjur JWT authenticator policy is configured p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Optional SecretRef that refers to a key in a Secret resource containing JWT token to authenticate with Conjur using the JWT authentication method p td tr tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p Optional ServiceAccountRef specifies the Kubernetes service account for which to request a token for with the code TokenRequest code API p td tr tbody table h3 id external secrets io v1beta1 ConjurProvider ConjurProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code url code br em string em td td td tr tr td code caBundle code br em string em td td em Optional em td tr tr td code caProvider code br em a href external secrets io v1beta1 CAProvider CAProvider a em td td em Optional em td tr tr td code auth code br em a href external secrets io v1beta1 ConjurAuth ConjurAuth a em td td td tr tbody table h3 id external secrets io v1beta1 DelineaProvider DelineaProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p See a href https github com DelineaXPM dsv sdk go blob main vault vault go https github com DelineaXPM dsv sdk go blob main vault vault go a p p table thead tr th Field th th Description th tr thead tbody tr td code clientId code br em a href external secrets io v1beta1 DelineaProviderSecretRef DelineaProviderSecretRef a em td td p ClientID is the non secret part of the credential p td tr tr td code clientSecret code br em a href external secrets io v1beta1 DelineaProviderSecretRef DelineaProviderSecretRef a em td td p ClientSecret is the secret part of the credential p td tr tr td code tenant code br em string em td td p Tenant is the chosen hostname site name p td tr tr td code urlTemplate code br em string em td td em Optional em p URLTemplate If unset defaults to ldquo https s secretsvaultcloud s v1 s s rdquo p td tr tr td code tld code br em string em td td em Optional em p TLD is based on the server location that was chosen during provisioning If unset defaults to ldquo com rdquo p td tr tbody table h3 id external secrets io v1beta1 DelineaProviderSecretRef DelineaProviderSecretRef h3 p em Appears on em a href external secrets io v1beta1 DelineaProvider DelineaProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code value code br em string em td td em Optional em p Value can be specified directly to set a value without using a secret p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p SecretRef references a key in a secret that will be used as value p td tr tbody table h3 id external secrets io v1beta1 Device42Auth Device42Auth h3 p em Appears on em a href external secrets io v1beta1 Device42Provider Device42Provider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 Device42SecretRef Device42SecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 Device42Provider Device42Provider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Device42Provider configures a store to sync secrets with a Device42 instance p p table thead tr th Field th th Description th tr thead tbody tr td code host code br em string em td td p URL configures the Device42 instance URL p td tr tr td code auth code br em a href external secrets io v1beta1 Device42Auth Device42Auth a em td td p Auth configures how secret manager authenticates with a Device42 instance p td tr tbody table h3 id external secrets io v1beta1 Device42SecretRef Device42SecretRef h3 p em Appears on em a href external secrets io v1beta1 Device42Auth Device42Auth a p p p table thead tr th Field th th Description th tr thead tbody tr td code credentials code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Username Password is used for authentication p td tr tbody table h3 id external secrets io v1beta1 DopplerAuth DopplerAuth h3 p em Appears on em a href external secrets io v1beta1 DopplerProvider DopplerProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 DopplerAuthSecretRef DopplerAuthSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 DopplerAuthSecretRef DopplerAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 DopplerAuth DopplerAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code dopplerToken code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The DopplerToken is used for authentication See a href https docs doppler com reference api authentication https docs doppler com reference api authentication a for auth token types The Key attribute defaults to dopplerToken if not specified p td tr tbody table h3 id external secrets io v1beta1 DopplerProvider DopplerProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p DopplerProvider configures a store to sync secrets using the Doppler provider Project and Config are required if not using a Service Token p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 DopplerAuth DopplerAuth a em td td p Auth configures how the Operator authenticates with the Doppler API p td tr tr td code project code br em string em td td em Optional em p Doppler project required if not using a Service Token p td tr tr td code config code br em string em td td em Optional em p Doppler config required if not using a Service Token p td tr tr td code nameTransformer code br em string em td td em Optional em p Environment variable compatible name transforms that change secret names to a different format p td tr tr td code format code br em string em td td em Optional em p Format enables the downloading of secrets as a file string p td tr tbody table h3 id external secrets io v1beta1 ExternalSecret ExternalSecret h3 p p ExternalSecret is the Schema for the external secrets API p p table thead tr th Field th th Description th tr thead tbody tr td code metadata code br em a href https kubernetes io docs reference generated kubernetes api v1 25 objectmeta v1 meta Kubernetes meta v1 ObjectMeta a em td td Refer to the Kubernetes API documentation for the fields of the code metadata code field td tr tr td code spec code br em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a em td td br br table tr td code secretStoreRef code br em a href external secrets io v1beta1 SecretStoreRef SecretStoreRef a em td td em Optional em td tr tr td code target code br em a href external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget a em td td em Optional em td tr tr td code refreshInterval code br em a href https pkg go dev k8s io apimachinery pkg apis meta v1 Duration Kubernetes meta v1 Duration a em td td p RefreshInterval is the amount of time before the values are read again from the SecretStore provider specified as Golang Duration strings Valid time units are ldquo ns rdquo ldquo us rdquo or ldquo s rdquo ldquo ms rdquo ldquo s rdquo ldquo m rdquo ldquo h rdquo Example values ldquo 1h rdquo ldquo 2h30m rdquo ldquo 5d rdquo ldquo 10s rdquo May be set to zero to fetch and create it once Defaults to 1h p td tr tr td code data code br em a href external secrets io v1beta1 ExternalSecretData ExternalSecretData a em td td em Optional em p Data defines the connection between the Kubernetes Secret keys and the Provider data p td tr tr td code dataFrom code br em a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a em td td em Optional em p DataFrom is used to fetch all properties from a specific Provider data If multiple entries are specified the Secret keys are merged in the specified order p td tr table td tr tr td code status code br em a href external secrets io v1beta1 ExternalSecretStatus ExternalSecretStatus a em td td td tr tbody table h3 id external secrets io v1beta1 ExternalSecretConditionType ExternalSecretConditionType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretStatusCondition ExternalSecretStatusCondition a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Deleted 34 p td td td tr tr td p 34 Ready 34 p td td td tr tbody table h3 id external secrets io v1beta1 ExternalSecretConversionStrategy ExternalSecretConversionStrategy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef a a href external secrets io v1beta1 ExternalSecretFind ExternalSecretFind a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Default 34 p td td td tr tr td p 34 Unicode 34 p td td td tr tbody table h3 id external secrets io v1beta1 ExternalSecretCreationPolicy ExternalSecretCreationPolicy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget a p p p ExternalSecretCreationPolicy defines rules on how to create the resulting Secret p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Merge 34 p td td p Merge does not create the Secret but merges the data fields to the Secret p td tr tr td p 34 None 34 p td td p None does not create a Secret future use with injector p td tr tr td p 34 Orphan 34 p td td p Orphan creates the Secret and does not set the ownerReference I e it will be orphaned after the deletion of the ExternalSecret p td tr tr td p 34 Owner 34 p td td p Owner creates the Secret and sets metadata ownerReferences to the ExternalSecret resource p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretData ExternalSecretData h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a p p p ExternalSecretData defines the connection between the Kubernetes Secret key spec data key and the Provider data p p table thead tr th Field th th Description th tr thead tbody tr td code secretKey code br em string em td td p The key in the Kubernetes Secret to store the value p td tr tr td code remoteRef code br em a href external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef a em td td p RemoteRef points to the remote secret and defines which secret version property to fetch p td tr tr td code sourceRef code br em a href external secrets io v1beta1 StoreSourceRef StoreSourceRef a em td td p SourceRef allows you to override the source from which the value will be pulled p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a p p p table thead tr th Field th th Description th tr thead tbody tr td code extract code br em a href external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef a em td td em Optional em p Used to extract multiple key value pairs from one secret Note Extract does not support sourceRef Generator or sourceRef GeneratorRef p td tr tr td code find code br em a href external secrets io v1beta1 ExternalSecretFind ExternalSecretFind a em td td em Optional em p Used to find secrets based on tags or regular expressions Note Find does not support sourceRef Generator or sourceRef GeneratorRef p td tr tr td code rewrite code br em a href external secrets io v1beta1 ExternalSecretRewrite ExternalSecretRewrite a em td td em Optional em p Used to rewrite secret Keys after getting them from the secret Provider Multiple Rewrite operations can be provided They are applied in a layered order first to last p td tr tr td code sourceRef code br em a href external secrets io v1beta1 StoreGeneratorSourceRef StoreGeneratorSourceRef a em td td p SourceRef points to a store or generator which contains secret values ready to use Use this in combination with Extract or Find pull values out of a specific SecretStore When sourceRef points to a generator Extract or Find is not supported The generator returns a static map of values p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretData ExternalSecretData a a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a p p p ExternalSecretDataRemoteRef defines Provider data location p p table thead tr th Field th th Description th tr thead tbody tr td code key code br em string em td td p Key is the key used in the Provider mandatory p td tr tr td code metadataPolicy code br em a href external secrets io v1beta1 ExternalSecretMetadataPolicy ExternalSecretMetadataPolicy a em td td em Optional em p Policy for fetching tags labels from provider secrets possible options are Fetch None Defaults to None p td tr tr td code property code br em string em td td em Optional em p Used to select a specific property of the Provider value if a map if supported p td tr tr td code version code br em string em td td em Optional em p Used to select a specific version of the Provider value if supported p td tr tr td code conversionStrategy code br em a href external secrets io v1beta1 ExternalSecretConversionStrategy ExternalSecretConversionStrategy a em td td em Optional em p Used to define a conversion Strategy p td tr tr td code decodingStrategy code br em a href external secrets io v1beta1 ExternalSecretDecodingStrategy ExternalSecretDecodingStrategy a em td td em Optional em p Used to define a decoding Strategy p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretDecodingStrategy ExternalSecretDecodingStrategy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef a a href external secrets io v1beta1 ExternalSecretFind ExternalSecretFind a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Auto 34 p td td td tr tr td p 34 Base64 34 p td td td tr tr td p 34 Base64URL 34 p td td td tr tr td p 34 None 34 p td td td tr tbody table h3 id external secrets io v1beta1 ExternalSecretDeletionPolicy ExternalSecretDeletionPolicy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget a p p p ExternalSecretDeletionPolicy defines rules on how to delete the resulting Secret p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Delete 34 p td td p Delete deletes the secret if all provider secrets are deleted If a secret gets deleted on the provider side and is not accessible anymore this is not considered an error and the ExternalSecret does not go into SecretSyncedError status p td tr tr td p 34 Merge 34 p td td p Merge removes keys in the secret but not the secret itself If a secret gets deleted on the provider side and is not accessible anymore this is not considered an error and the ExternalSecret does not go into SecretSyncedError status p td tr tr td p 34 Retain 34 p td td p Retain will retain the secret if all provider secrets have been deleted If a provider secret does not exist the ExternalSecret gets into the SecretSyncedError status p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretFind ExternalSecretFind h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a p p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td em Optional em p A root path to start the find operations p td tr tr td code name code br em a href external secrets io v1beta1 FindName FindName a em td td em Optional em p Finds secrets based on the name p td tr tr td code tags code br em map string string em td td em Optional em p Find secrets based on tags p td tr tr td code conversionStrategy code br em a href external secrets io v1beta1 ExternalSecretConversionStrategy ExternalSecretConversionStrategy a em td td em Optional em p Used to define a conversion Strategy p td tr tr td code decodingStrategy code br em a href external secrets io v1beta1 ExternalSecretDecodingStrategy ExternalSecretDecodingStrategy a em td td em Optional em p Used to define a decoding Strategy p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretMetadata ExternalSecretMetadata h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecretSpec ClusterExternalSecretSpec a p p p ExternalSecretMetadata defines metadata fields for the ExternalSecret generated by the ClusterExternalSecret p p table thead tr th Field th th Description th tr thead tbody tr td code annotations code br em map string string em td td em Optional em td tr tr td code labels code br em map string string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ExternalSecretMetadataPolicy ExternalSecretMetadataPolicy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataRemoteRef ExternalSecretDataRemoteRef a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Fetch 34 p td td td tr tr td p 34 None 34 p td td td tr tbody table h3 id external secrets io v1beta1 ExternalSecretRewrite ExternalSecretRewrite h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a p p p table thead tr th Field th th Description th tr thead tbody tr td code regexp code br em a href external secrets io v1beta1 ExternalSecretRewriteRegexp ExternalSecretRewriteRegexp a em td td em Optional em p Used to rewrite with regular expressions The resulting key will be the output of a regexp ReplaceAll operation p td tr tr td code transform code br em a href external secrets io v1beta1 ExternalSecretRewriteTransform ExternalSecretRewriteTransform a em td td em Optional em p Used to apply string transformation on the secrets The resulting key will be the output of the template applied by the operation p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretRewriteRegexp ExternalSecretRewriteRegexp h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretRewrite ExternalSecretRewrite a p p p table thead tr th Field th th Description th tr thead tbody tr td code source code br em string em td td p Used to define the regular expression of a re Compiler p td tr tr td code target code br em string em td td p Used to define the target pattern of a ReplaceAll operation p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretRewriteTransform ExternalSecretRewriteTransform h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretRewrite ExternalSecretRewrite a p p p table thead tr th Field th th Description th tr thead tbody tr td code template code br em string em td td p Used to define the template to apply on the secret name code value code will specify the secret name in the template p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec h3 p em Appears on em a href external secrets io v1beta1 ClusterExternalSecretSpec ClusterExternalSecretSpec a a href external secrets io v1beta1 ExternalSecret ExternalSecret a p p p ExternalSecretSpec defines the desired state of ExternalSecret p p table thead tr th Field th th Description th tr thead tbody tr td code secretStoreRef code br em a href external secrets io v1beta1 SecretStoreRef SecretStoreRef a em td td em Optional em td tr tr td code target code br em a href external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget a em td td em Optional em td tr tr td code refreshInterval code br em a href https pkg go dev k8s io apimachinery pkg apis meta v1 Duration Kubernetes meta v1 Duration a em td td p RefreshInterval is the amount of time before the values are read again from the SecretStore provider specified as Golang Duration strings Valid time units are ldquo ns rdquo ldquo us rdquo or ldquo s rdquo ldquo ms rdquo ldquo s rdquo ldquo m rdquo ldquo h rdquo Example values ldquo 1h rdquo ldquo 2h30m rdquo ldquo 5d rdquo ldquo 10s rdquo May be set to zero to fetch and create it once Defaults to 1h p td tr tr td code data code br em a href external secrets io v1beta1 ExternalSecretData ExternalSecretData a em td td em Optional em p Data defines the connection between the Kubernetes Secret keys and the Provider data p td tr tr td code dataFrom code br em a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a em td td em Optional em p DataFrom is used to fetch all properties from a specific Provider data If multiple entries are specified the Secret keys are merged in the specified order p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretStatus ExternalSecretStatus h3 p em Appears on em a href external secrets io v1beta1 ExternalSecret ExternalSecret a p p p table thead tr th Field th th Description th tr thead tbody tr td code refreshTime code br em a href https kubernetes io docs reference generated kubernetes api v1 25 time v1 meta Kubernetes meta v1 Time a em td td p refreshTime is the time and date the external secret was fetched and the target secret updated p td tr tr td code syncedResourceVersion code br em string em td td p SyncedResourceVersion keeps track of the last synced version p td tr tr td code conditions code br em a href external secrets io v1beta1 ExternalSecretStatusCondition ExternalSecretStatusCondition a em td td em Optional em td tr tr td code binding code br em a href https kubernetes io docs reference generated kubernetes api v1 25 localobjectreference v1 core Kubernetes core v1 LocalObjectReference a em td td p Binding represents a servicebinding io Provisioned Service reference to the secret p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretStatusCondition ExternalSecretStatusCondition h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretStatus ExternalSecretStatus a p p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href external secrets io v1beta1 ExternalSecretConditionType ExternalSecretConditionType a em td td td tr tr td code status code br em a href https kubernetes io docs reference generated kubernetes api v1 25 conditionstatus v1 core Kubernetes core v1 ConditionStatus a em td td td tr tr td code reason code br em string em td td em Optional em td tr tr td code message code br em string em td td em Optional em td tr tr td code lastTransitionTime code br em a href https kubernetes io docs reference generated kubernetes api v1 25 time v1 meta Kubernetes meta v1 Time a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a p p p ExternalSecretTarget defines the Kubernetes Secret to be created There can be only one target per ExternalSecret p p table thead tr th Field th th Description th tr thead tbody tr td code name code br em string em td td em Optional em p The name of the Secret resource to be managed Defaults to the metadata name of the ExternalSecret resource p td tr tr td code creationPolicy code br em a href external secrets io v1beta1 ExternalSecretCreationPolicy ExternalSecretCreationPolicy a em td td em Optional em p CreationPolicy defines rules on how to create the resulting Secret Defaults to ldquo Owner rdquo p td tr tr td code deletionPolicy code br em a href external secrets io v1beta1 ExternalSecretDeletionPolicy ExternalSecretDeletionPolicy a em td td em Optional em p DeletionPolicy defines rules on how to delete the resulting Secret Defaults to ldquo Retain rdquo p td tr tr td code template code br em a href external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate a em td td em Optional em p Template defines a blueprint for the created Secret resource p td tr tr td code immutable code br em bool em td td em Optional em p Immutable defines if the final secret will be immutable p td tr tbody table h3 id external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTarget ExternalSecretTarget a p p p ExternalSecretTemplate defines a blueprint for the created Secret resource we can not use native corev1 Secret it will have empty ObjectMeta values a href https github com kubernetes sigs controller tools issues 448 https github com kubernetes sigs controller tools issues 448 a p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href https kubernetes io docs reference generated kubernetes api v1 25 secrettype v1 core Kubernetes core v1 SecretType a em td td em Optional em td tr tr td code engineVersion code br em a href external secrets io v1beta1 TemplateEngineVersion TemplateEngineVersion a em td td p EngineVersion specifies the template engine version that should be used to compile execute the template specified in data and templateFrom p td tr tr td code metadata code br em a href external secrets io v1beta1 ExternalSecretTemplateMetadata ExternalSecretTemplateMetadata a em td td em Optional em td tr tr td code mergePolicy code br em a href external secrets io v1beta1 TemplateMergePolicy TemplateMergePolicy a em td td td tr tr td code data code br em map string string em td td em Optional em td tr tr td code templateFrom code br em a href external secrets io v1beta1 TemplateFrom TemplateFrom a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ExternalSecretTemplateMetadata ExternalSecretTemplateMetadata h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate a p p p ExternalSecretTemplateMetadata defines metadata fields for the Secret blueprint p p table thead tr th Field th th Description th tr thead tbody tr td code annotations code br em map string string em td td em Optional em td tr tr td code labels code br em map string string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 ExternalSecretValidator ExternalSecretValidator h3 p p h3 id external secrets io v1beta1 FakeProvider FakeProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p FakeProvider configures a fake provider that returns static values p p table thead tr th Field th th Description th tr thead tbody tr td code data code br em a href external secrets io v1beta1 FakeProviderData FakeProviderData a em td td td tr tbody table h3 id external secrets io v1beta1 FakeProviderData FakeProviderData h3 p em Appears on em a href external secrets io v1beta1 FakeProvider FakeProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code key code br em string em td td td tr tr td code value code br em string em td td td tr tr td code valueMap code br em map string string em td td p Deprecated ValueMap is deprecated and is intended to be removed in the future use the code value code field instead p td tr tr td code version code br em string em td td td tr tbody table h3 id external secrets io v1beta1 FindName FindName h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretFind ExternalSecretFind a p p p table thead tr th Field th th Description th tr thead tbody tr td code regexp code br em string em td td em Optional em p Finds secrets base p td tr tbody table h3 id external secrets io v1beta1 FortanixProvider FortanixProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code apiUrl code br em string em td td p APIURL is the URL of SDKMS API Defaults to code sdkms fortanix com code p td tr tr td code apiKey code br em a href external secrets io v1beta1 FortanixProviderSecretRef FortanixProviderSecretRef a em td td p APIKey is the API token to access SDKMS Applications p td tr tbody table h3 id external secrets io v1beta1 FortanixProviderSecretRef FortanixProviderSecretRef h3 p em Appears on em a href external secrets io v1beta1 FortanixProvider FortanixProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretRef is a reference to a secret containing the SDKMS API Key p td tr tbody table h3 id external secrets io v1beta1 GCPSMAuth GCPSMAuth h3 p em Appears on em a href external secrets io v1beta1 GCPSMProvider GCPSMProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 GCPSMAuthSecretRef GCPSMAuthSecretRef a em td td em Optional em td tr tr td code workloadIdentity code br em a href external secrets io v1beta1 GCPWorkloadIdentity GCPWorkloadIdentity a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 GCPSMAuthSecretRef GCPSMAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 GCPSMAuth GCPSMAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretAccessKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The SecretAccessKey is used for authentication p td tr tbody table h3 id external secrets io v1beta1 GCPSMProvider GCPSMProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p GCPSMProvider Configures a store to sync secrets using the GCP Secret Manager provider p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 GCPSMAuth GCPSMAuth a em td td em Optional em p Auth defines the information necessary to authenticate against GCP p td tr tr td code projectID code br em string em td td p ProjectID project where secret is located p td tr tr td code location code br em string em td td p Location optionally defines a location for a secret p td tr tbody table h3 id external secrets io v1beta1 GCPWorkloadIdentity GCPWorkloadIdentity h3 p em Appears on em a href external secrets io v1beta1 GCPSMAuth GCPSMAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td td tr tr td code clusterLocation code br em string em td td td tr tr td code clusterName code br em string em td td td tr tr td code clusterProjectID code br em string em td td td tr tbody table h3 id external secrets io v1beta1 GeneratorRef GeneratorRef h3 p em Appears on em a href external secrets io v1beta1 StoreGeneratorSourceRef StoreGeneratorSourceRef a a href external secrets io v1beta1 StoreSourceRef StoreSourceRef a p p p GeneratorRef points to a generator custom resource p p table thead tr th Field th th Description th tr thead tbody tr td code apiVersion code br em string em td td p Specify the apiVersion of the generator resource p td tr tr td code kind code br em string em td td p Specify the Kind of the generator resource p td tr tr td code name code br em string em td td p Specify the name of the generator resource p td tr tbody table h3 id external secrets io v1beta1 GenericStore GenericStore h3 p p GenericStore is a common interface for interacting with ClusterSecretStore or a namespaced SecretStore p p h3 id external secrets io v1beta1 GenericStoreValidator GenericStoreValidator h3 p p h3 id external secrets io v1beta1 GitlabAuth GitlabAuth h3 p em Appears on em a href external secrets io v1beta1 GitlabProvider GitlabProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code SecretRef code br em a href external secrets io v1beta1 GitlabSecretRef GitlabSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 GitlabProvider GitlabProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures a store to sync secrets with a GitLab instance p p table thead tr th Field th th Description th tr thead tbody tr td code url code br em string em td td p URL configures the GitLab instance URL Defaults to a href https gitlab com https gitlab com a p td tr tr td code auth code br em a href external secrets io v1beta1 GitlabAuth GitlabAuth a em td td p Auth configures how secret manager authenticates with a GitLab instance p td tr tr td code projectID code br em string em td td p ProjectID specifies a project where secrets are located p td tr tr td code inheritFromGroups code br em bool em td td p InheritFromGroups specifies whether parent groups should be discovered and checked for secrets p td tr tr td code groupIDs code br em string em td td p GroupIDs specify which gitlab groups to pull secrets from Group secrets are read from left to right followed by the project variables p td tr tr td code environment code br em string em td td p Environment environment scope of gitlab CI CD variables Please see a href https docs gitlab com ee ci environments create a static environment https docs gitlab com ee ci environments create a static environment a on how to create environments p td tr tbody table h3 id external secrets io v1beta1 GitlabSecretRef GitlabSecretRef h3 p em Appears on em a href external secrets io v1beta1 GitlabAuth GitlabAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code accessToken code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p AccessToken is used for authentication p td tr tbody table h3 id external secrets io v1beta1 IBMAuth IBMAuth h3 p em Appears on em a href external secrets io v1beta1 IBMProvider IBMProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 IBMAuthSecretRef IBMAuthSecretRef a em td td td tr tr td code containerAuth code br em a href external secrets io v1beta1 IBMAuthContainerAuth IBMAuthContainerAuth a em td td td tr tbody table h3 id external secrets io v1beta1 IBMAuthContainerAuth IBMAuthContainerAuth h3 p em Appears on em a href external secrets io v1beta1 IBMAuth IBMAuth a p p p IBM Container based auth with IAM Trusted Profile p p table thead tr th Field th th Description th tr thead tbody tr td code profile code br em string em td td p the IBM Trusted Profile p td tr tr td code tokenLocation code br em string em td td p Location the token is mounted on the pod p td tr tr td code iamEndpoint code br em string em td td td tr tbody table h3 id external secrets io v1beta1 IBMAuthSecretRef IBMAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 IBMAuth IBMAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretApiKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SecretAccessKey is used for authentication p td tr tbody table h3 id external secrets io v1beta1 IBMProvider IBMProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures an store to sync secrets using a IBM Cloud Secrets Manager backend p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 IBMAuth IBMAuth a em td td p Auth configures how secret manager authenticates with the IBM secrets manager p td tr tr td code serviceUrl code br em string em td td p ServiceURL is the Endpoint URL that is specific to the Secrets Manager service instance p td tr tbody table h3 id external secrets io v1beta1 InfisicalAuth InfisicalAuth h3 p em Appears on em a href external secrets io v1beta1 InfisicalProvider InfisicalProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code universalAuthCredentials code br em a href external secrets io v1beta1 UniversalAuthCredentials UniversalAuthCredentials a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 InfisicalProvider InfisicalProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p InfisicalProvider configures a store to sync secrets using the Infisical provider p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 InfisicalAuth InfisicalAuth a em td td p Auth configures how the Operator authenticates with the Infisical API p td tr tr td code secretsScope code br em a href external secrets io v1beta1 MachineIdentityScopeInWorkspace MachineIdentityScopeInWorkspace a em td td td tr tr td code hostAPI code br em string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 KeeperSecurityProvider KeeperSecurityProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p KeeperSecurityProvider Configures a store to sync secrets using Keeper Security p p table thead tr th Field th th Description th tr thead tbody tr td code authRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code folderID code br em string em td td td tr tbody table h3 id external secrets io v1beta1 KubernetesAuth KubernetesAuth h3 p em Appears on em a href external secrets io v1beta1 KubernetesProvider KubernetesProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code cert code br em a href external secrets io v1beta1 CertAuth CertAuth a em td td em Optional em p has both clientCert and clientKey as secretKeySelector p td tr tr td code token code br em a href external secrets io v1beta1 TokenAuth TokenAuth a em td td em Optional em p use static token to authenticate with p td tr tr td code serviceAccount code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p points to a service account that should be used for authentication p td tr tbody table h3 id external secrets io v1beta1 KubernetesProvider KubernetesProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures a store to sync secrets with a Kubernetes instance p p table thead tr th Field th th Description th tr thead tbody tr td code server code br em a href external secrets io v1beta1 KubernetesServer KubernetesServer a em td td em Optional em p configures the Kubernetes server Address p td tr tr td code auth code br em a href external secrets io v1beta1 KubernetesAuth KubernetesAuth a em td td em Optional em p Auth configures how secret manager authenticates with a Kubernetes instance p td tr tr td code authRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p A reference to a secret that contains the auth information p td tr tr td code remoteNamespace code br em string em td td em Optional em p Remote namespace to fetch the secrets from p td tr tbody table h3 id external secrets io v1beta1 KubernetesServer KubernetesServer h3 p em Appears on em a href external secrets io v1beta1 KubernetesProvider KubernetesProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code url code br em string em td td em Optional em p configures the Kubernetes server Address p td tr tr td code caBundle code br em byte em td td em Optional em p CABundle is a base64 encoded CA certificate p td tr tr td code caProvider code br em a href external secrets io v1beta1 CAProvider CAProvider a em td td em Optional em p see a href https external secrets io v0 4 1 spec external secrets io v1alpha1 CAProvider https external secrets io v0 4 1 spec external secrets io v1alpha1 CAProvider a p td tr tbody table h3 id external secrets io v1beta1 MachineIdentityScopeInWorkspace MachineIdentityScopeInWorkspace h3 p em Appears on em a href external secrets io v1beta1 InfisicalProvider InfisicalProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretsPath code br em string em td td em Optional em td tr tr td code recursive code br em bool em td td em Optional em td tr tr td code environmentSlug code br em string em td td td tr tr td code projectSlug code br em string em td td td tr tbody table h3 id external secrets io v1beta1 NoSecretError NoSecretError h3 p p NoSecretError shall be returned when a GetSecret can not find the desired secret This is used for deletionPolicy p p h3 id external secrets io v1beta1 NotModifiedError NotModifiedError h3 p p NotModifiedError to signal that the webhook received no changes and it should just return without doing anything p p h3 id external secrets io v1beta1 OnboardbaseAuthSecretRef OnboardbaseAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 OnboardbaseProvider OnboardbaseProvider a p p p OnboardbaseAuthSecretRef holds secret references for onboardbase API Key credentials p p table thead tr th Field th th Description th tr thead tbody tr td code apiKeyRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p OnboardbaseAPIKey is the APIKey generated by an admin account It is used to recognize and authorize access to a project and environment within onboardbase p td tr tr td code passcodeRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p OnboardbasePasscode is the passcode attached to the API Key p td tr tbody table h3 id external secrets io v1beta1 OnboardbaseProvider OnboardbaseProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p OnboardbaseProvider configures a store to sync secrets using the Onboardbase provider Project and Config are required if not using a Service Token p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 OnboardbaseAuthSecretRef OnboardbaseAuthSecretRef a em td td p Auth configures how the Operator authenticates with the Onboardbase API p td tr tr td code apiHost code br em string em td td p APIHost use this to configure the host url for the API for selfhosted installation default is a href https public onboardbase com api v1 https public onboardbase com api v1 a p td tr tr td code project code br em string em td td p Project is an onboardbase project that the secrets should be pulled from p td tr tr td code environment code br em string em td td p Environment is the name of an environmnent within a project to pull the secrets from p td tr tbody table h3 id external secrets io v1beta1 OnePasswordAuth OnePasswordAuth h3 p em Appears on em a href external secrets io v1beta1 OnePasswordProvider OnePasswordProvider a p p p OnePasswordAuth contains a secretRef for credentials p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 OnePasswordAuthSecretRef OnePasswordAuthSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 OnePasswordAuthSecretRef OnePasswordAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 OnePasswordAuth OnePasswordAuth a p p p OnePasswordAuthSecretRef holds secret references for 1Password credentials p p table thead tr th Field th th Description th tr thead tbody tr td code connectTokenSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The ConnectToken is used for authentication to a 1Password Connect Server p td tr tbody table h3 id external secrets io v1beta1 OnePasswordProvider OnePasswordProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p OnePasswordProvider configures a store to sync secrets using the 1Password Secret Manager provider p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 OnePasswordAuth OnePasswordAuth a em td td p Auth defines the information necessary to authenticate against OnePassword Connect Server p td tr tr td code connectHost code br em string em td td p ConnectHost defines the OnePassword Connect Server to connect to p td tr tr td code vaults code br em map string int em td td p Vaults defines which OnePassword vaults to search in which order p td tr tbody table h3 id external secrets io v1beta1 OracleAuth OracleAuth h3 p em Appears on em a href external secrets io v1beta1 OracleProvider OracleProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code tenancy code br em string em td td p Tenancy is the tenancy OCID where user is located p td tr tr td code user code br em string em td td p User is an access OCID specific to the account p td tr tr td code secretRef code br em a href external secrets io v1beta1 OracleSecretRef OracleSecretRef a em td td p SecretRef to pass through sensitive information p td tr tbody table h3 id external secrets io v1beta1 OraclePrincipalType OraclePrincipalType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 OracleProvider OracleProvider a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 InstancePrincipal 34 p td td p InstancePrincipal represents a instance principal p td tr tr td p 34 UserPrincipal 34 p td td p UserPrincipal represents a user principal p td tr tr td p 34 Workload 34 p td td p WorkloadPrincipal represents a workload principal p td tr tbody table h3 id external secrets io v1beta1 OracleProvider OracleProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures an store to sync secrets using a Oracle Vault backend p p table thead tr th Field th th Description th tr thead tbody tr td code region code br em string em td td p Region is the region where vault is located p td tr tr td code vault code br em string em td td p Vault is the vault rsquo s OCID of the specific vault where secret is located p td tr tr td code compartment code br em string em td td em Optional em p Compartment is the vault compartment OCID Required for PushSecret p td tr tr td code encryptionKey code br em string em td td em Optional em p EncryptionKey is the OCID of the encryption key within the vault Required for PushSecret p td tr tr td code principalType code br em a href external secrets io v1beta1 OraclePrincipalType OraclePrincipalType a em td td em Optional em p The type of principal to use for authentication If left blank the Auth struct will determine the principal type This optional field must be specified if using workload identity p td tr tr td code auth code br em a href external secrets io v1beta1 OracleAuth OracleAuth a em td td em Optional em p Auth configures how secret manager authenticates with the Oracle Vault If empty use the instance principal otherwise the user credentials specified in Auth p td tr tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p ServiceAccountRef specified the service account that should be used when authenticating with WorkloadIdentity p td tr tbody table h3 id external secrets io v1beta1 OracleSecretRef OracleSecretRef h3 p em Appears on em a href external secrets io v1beta1 OracleAuth OracleAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code privatekey code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p PrivateKey is the user rsquo s API Signing Key in PEM format used for authentication p td tr tr td code fingerprint code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p Fingerprint is the fingerprint of the API private key p td tr tbody table h3 id external secrets io v1beta1 PassboltAuth PassboltAuth h3 p em Appears on em a href external secrets io v1beta1 PassboltProvider PassboltProvider a p p p Passbolt contains a secretRef for the passbolt credentials p p table thead tr th Field th th Description th tr thead tbody tr td code passwordSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code privateKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 PassboltProvider PassboltProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 PassboltAuth PassboltAuth a em td td p Auth defines the information necessary to authenticate against Passbolt Server p td tr tr td code host code br em string em td td p Host defines the Passbolt Server to connect to p td tr tbody table h3 id external secrets io v1beta1 PasswordDepotAuth PasswordDepotAuth h3 p em Appears on em a href external secrets io v1beta1 PasswordDepotProvider PasswordDepotProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 PasswordDepotSecretRef PasswordDepotSecretRef a em td td td tr tbody table h3 id external secrets io v1beta1 PasswordDepotProvider PasswordDepotProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures a store to sync secrets with a Password Depot instance p p table thead tr th Field th th Description th tr thead tbody tr td code host code br em string em td td p URL configures the Password Depot instance URL p td tr tr td code database code br em string em td td p Database to use as source p td tr tr td code auth code br em a href external secrets io v1beta1 PasswordDepotAuth PasswordDepotAuth a em td td p Auth configures how secret manager authenticates with a Password Depot instance p td tr tbody table h3 id external secrets io v1beta1 PasswordDepotSecretRef PasswordDepotSecretRef h3 p em Appears on em a href external secrets io v1beta1 PasswordDepotAuth PasswordDepotAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code credentials code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Username Password is used for authentication p td tr tbody table h3 id external secrets io v1beta1 PreviderAuth PreviderAuth h3 p em Appears on em a href external secrets io v1beta1 PreviderProvider PreviderProvider a p p p PreviderAuth contains a secretRef for credentials p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 PreviderAuthSecretRef PreviderAuthSecretRef a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 PreviderAuthSecretRef PreviderAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 PreviderAuth PreviderAuth a p p p PreviderAuthSecretRef holds secret references for Previder Vault credentials p p table thead tr th Field th th Description th tr thead tbody tr td code accessToken code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The AccessToken is used for authentication p td tr tbody table h3 id external secrets io v1beta1 PreviderProvider PreviderProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p PreviderProvider configures a store to sync secrets using the Previder Secret Manager provider p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 PreviderAuth PreviderAuth a em td td td tr tr td code baseUri code br em string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 Provider Provider h3 p p Provider is a common interface for interacting with secret backends p p h3 id external secrets io v1beta1 PulumiProvider PulumiProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code apiUrl code br em string em td td p APIURL is the URL of the Pulumi API p td tr tr td code accessToken code br em a href external secrets io v1beta1 PulumiProviderSecretRef PulumiProviderSecretRef a em td td p AccessToken is the access tokens to sign in to the Pulumi Cloud Console p td tr tr td code organization code br em string em td td p Organization are a space to collaborate on shared projects and stacks To create a new organization visit a href https app pulumi com https app pulumi com a and click ldquo New Organization rdquo p td tr tr td code project code br em string em td td p Project is the name of the Pulumi ESC project the environment belongs to p td tr tr td code environment code br em string em td td p Environment are YAML documents composed of static key value pairs programmatic expressions dynamically retrieved values from supported providers including all major clouds and other Pulumi ESC environments To create a new environment visit a href https www pulumi com docs esc environments https www pulumi com docs esc environments a for more information p td tr tbody table h3 id external secrets io v1beta1 PulumiProviderSecretRef PulumiProviderSecretRef h3 p em Appears on em a href external secrets io v1beta1 PulumiProvider PulumiProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretRef is a reference to a secret containing the Pulumi API token p td tr tbody table h3 id external secrets io v1beta1 PushSecretData PushSecretData h3 p p PushSecretData is an interface to allow using v1alpha1 PushSecretData content in Provider registered in v1beta1 p p h3 id external secrets io v1beta1 PushSecretRemoteRef PushSecretRemoteRef h3 p p PushSecretRemoteRef is an interface to allow using v1alpha1 PushSecretRemoteRef in Provider registered in v1beta1 p p h3 id external secrets io v1beta1 ScalewayProvider ScalewayProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code apiUrl code br em string em td td em Optional em p APIURL is the url of the api to use Defaults to a href https api scaleway com https api scaleway com a p td tr tr td code region code br em string em td td p Region where your secrets are located a href https developers scaleway com en quickstart region and zone https developers scaleway com en quickstart region and zone a p td tr tr td code projectId code br em string em td td p ProjectID is the id of your project which you can find in the console a href https console scaleway com project settings https console scaleway com project settings a p td tr tr td code accessKey code br em a href external secrets io v1beta1 ScalewayProviderSecretRef ScalewayProviderSecretRef a em td td p AccessKey is the non secret part of the api key p td tr tr td code secretKey code br em a href external secrets io v1beta1 ScalewayProviderSecretRef ScalewayProviderSecretRef a em td td p SecretKey is the non secret part of the api key p td tr tbody table h3 id external secrets io v1beta1 ScalewayProviderSecretRef ScalewayProviderSecretRef h3 p em Appears on em a href external secrets io v1beta1 ScalewayProvider ScalewayProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code value code br em string em td td em Optional em p Value can be specified directly to set a value without using a secret p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p SecretRef references a key in a secret that will be used as value p td tr tbody table h3 id external secrets io v1beta1 SecretServerProvider SecretServerProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p See a href https github com DelineaXPM tss sdk go blob main server server go https github com DelineaXPM tss sdk go blob main server server go a p p table thead tr th Field th th Description th tr thead tbody tr td code username code br em a href external secrets io v1beta1 SecretServerProviderRef SecretServerProviderRef a em td td p Username is the secret server account username p td tr tr td code password code br em a href external secrets io v1beta1 SecretServerProviderRef SecretServerProviderRef a em td td p Password is the secret server account password p td tr tr td code serverURL code br em string em td td p ServerURL URL to your secret server installation p td tr tbody table h3 id external secrets io v1beta1 SecretServerProviderRef SecretServerProviderRef h3 p em Appears on em a href external secrets io v1beta1 SecretServerProvider SecretServerProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code value code br em string em td td em Optional em p Value can be specified directly to set a value without using a secret p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p SecretRef references a key in a secret that will be used as value p td tr tbody table h3 id external secrets io v1beta1 SecretStore SecretStore h3 p p SecretStore represents a secure external location for storing secrets which can be referenced as part of code storeRef code fields p p table thead tr th Field th th Description th tr thead tbody tr td code metadata code br em a href https kubernetes io docs reference generated kubernetes api v1 25 objectmeta v1 meta Kubernetes meta v1 ObjectMeta a em td td Refer to the Kubernetes API documentation for the fields of the code metadata code field td tr tr td code spec code br em a href external secrets io v1beta1 SecretStoreSpec SecretStoreSpec a em td td br br table tr td code controller code br em string em td td em Optional em p Used to select the correct ESO controller think ingress ingressClassName The ESO controller is instantiated with a specific controller name and filters ES based on this property p td tr tr td code provider code br em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a em td td p Used to configure the provider Only one provider may be set p td tr tr td code retrySettings code br em a href external secrets io v1beta1 SecretStoreRetrySettings SecretStoreRetrySettings a em td td em Optional em p Used to configure http retries if failed p td tr tr td code refreshInterval code br em int em td td em Optional em p Used to configure store refresh interval in seconds Empty or 0 will default to the controller config p td tr tr td code conditions code br em a href external secrets io v1beta1 ClusterSecretStoreCondition ClusterSecretStoreCondition a em td td em Optional em p Used to constraint a ClusterSecretStore to specific namespaces Relevant only to ClusterSecretStore p td tr table td tr tr td code status code br em a href external secrets io v1beta1 SecretStoreStatus SecretStoreStatus a em td td td tr tbody table h3 id external secrets io v1beta1 SecretStoreCapabilities SecretStoreCapabilities code string code alias p h3 p em Appears on em a href external secrets io v1beta1 SecretStoreStatus SecretStoreStatus a p p p SecretStoreCapabilities defines the possible operations a SecretStore can do p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ReadOnly 34 p td td td tr tr td p 34 ReadWrite 34 p td td td tr tr td p 34 WriteOnly 34 p td td td tr tbody table h3 id external secrets io v1beta1 SecretStoreConditionType SecretStoreConditionType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 SecretStoreStatusCondition SecretStoreStatusCondition a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Ready 34 p td td td tr tbody table h3 id external secrets io v1beta1 SecretStoreProvider SecretStoreProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreSpec SecretStoreSpec a p p p SecretStoreProvider contains the provider specific configuration p p table thead tr th Field th th Description th tr thead tbody tr td code aws code br em a href external secrets io v1beta1 AWSProvider AWSProvider a em td td em Optional em p AWS configures this store to sync secrets using AWS Secret Manager provider p td tr tr td code azurekv code br em a href external secrets io v1beta1 AzureKVProvider AzureKVProvider a em td td em Optional em p AzureKV configures this store to sync secrets using Azure Key Vault provider p td tr tr td code akeyless code br em a href external secrets io v1beta1 AkeylessProvider AkeylessProvider a em td td em Optional em p Akeyless configures this store to sync secrets using Akeyless Vault provider p td tr tr td code bitwardensecretsmanager code br em a href external secrets io v1beta1 BitwardenSecretsManagerProvider BitwardenSecretsManagerProvider a em td td em Optional em p BitwardenSecretsManager configures this store to sync secrets using BitwardenSecretsManager provider p td tr tr td code vault code br em a href external secrets io v1beta1 VaultProvider VaultProvider a em td td em Optional em p Vault configures this store to sync secrets using Hashi provider p td tr tr td code gcpsm code br em a href external secrets io v1beta1 GCPSMProvider GCPSMProvider a em td td em Optional em p GCPSM configures this store to sync secrets using Google Cloud Platform Secret Manager provider p td tr tr td code oracle code br em a href external secrets io v1beta1 OracleProvider OracleProvider a em td td em Optional em p Oracle configures this store to sync secrets using Oracle Vault provider p td tr tr td code ibm code br em a href external secrets io v1beta1 IBMProvider IBMProvider a em td td em Optional em p IBM configures this store to sync secrets using IBM Cloud provider p td tr tr td code yandexcertificatemanager code br em a href external secrets io v1beta1 YandexCertificateManagerProvider YandexCertificateManagerProvider a em td td em Optional em p YandexCertificateManager configures this store to sync secrets using Yandex Certificate Manager provider p td tr tr td code yandexlockbox code br em a href external secrets io v1beta1 YandexLockboxProvider YandexLockboxProvider a em td td em Optional em p YandexLockbox configures this store to sync secrets using Yandex Lockbox provider p td tr tr td code gitlab code br em a href external secrets io v1beta1 GitlabProvider GitlabProvider a em td td em Optional em p GitLab configures this store to sync secrets using GitLab Variables provider p td tr tr td code alibaba code br em a href external secrets io v1beta1 AlibabaProvider AlibabaProvider a em td td em Optional em p Alibaba configures this store to sync secrets using Alibaba Cloud provider p td tr tr td code onepassword code br em a href external secrets io v1beta1 OnePasswordProvider OnePasswordProvider a em td td em Optional em p OnePassword configures this store to sync secrets using the 1Password Cloud provider p td tr tr td code webhook code br em a href external secrets io v1beta1 WebhookProvider WebhookProvider a em td td em Optional em p Webhook configures this store to sync secrets using a generic templated webhook p td tr tr td code kubernetes code br em a href external secrets io v1beta1 KubernetesProvider KubernetesProvider a em td td em Optional em p Kubernetes configures this store to sync secrets using a Kubernetes cluster provider p td tr tr td code fake code br em a href external secrets io v1beta1 FakeProvider FakeProvider a em td td em Optional em p Fake configures a store with static key value pairs p td tr tr td code senhasegura code br em a href external secrets io v1beta1 SenhaseguraProvider SenhaseguraProvider a em td td em Optional em p Senhasegura configures this store to sync secrets using senhasegura provider p td tr tr td code scaleway code br em a href external secrets io v1beta1 ScalewayProvider ScalewayProvider a em td td em Optional em p Scaleway p td tr tr td code doppler code br em a href external secrets io v1beta1 DopplerProvider DopplerProvider a em td td em Optional em p Doppler configures this store to sync secrets using the Doppler provider p td tr tr td code previder code br em a href external secrets io v1beta1 PreviderProvider PreviderProvider a em td td em Optional em p Previder configures this store to sync secrets using the Previder provider p td tr tr td code onboardbase code br em a href external secrets io v1beta1 OnboardbaseProvider OnboardbaseProvider a em td td em Optional em p Onboardbase configures this store to sync secrets using the Onboardbase provider p td tr tr td code keepersecurity code br em a href external secrets io v1beta1 KeeperSecurityProvider KeeperSecurityProvider a em td td em Optional em p KeeperSecurity configures this store to sync secrets using the KeeperSecurity provider p td tr tr td code conjur code br em a href external secrets io v1beta1 ConjurProvider ConjurProvider a em td td em Optional em p Conjur configures this store to sync secrets using conjur provider p td tr tr td code delinea code br em a href external secrets io v1beta1 DelineaProvider DelineaProvider a em td td em Optional em p Delinea DevOps Secrets Vault a href https docs delinea com online help products devops secrets vault current https docs delinea com online help products devops secrets vault current a p td tr tr td code secretserver code br em a href external secrets io v1beta1 SecretServerProvider SecretServerProvider a em td td em Optional em p SecretServer configures this store to sync secrets using SecretServer provider a href https docs delinea com online help secret server start htm https docs delinea com online help secret server start htm a p td tr tr td code chef code br em a href external secrets io v1beta1 ChefProvider ChefProvider a em td td em Optional em p Chef configures this store to sync secrets with chef server p td tr tr td code pulumi code br em a href external secrets io v1beta1 PulumiProvider PulumiProvider a em td td em Optional em p Pulumi configures this store to sync secrets using the Pulumi provider p td tr tr td code fortanix code br em a href external secrets io v1beta1 FortanixProvider FortanixProvider a em td td em Optional em p Fortanix configures this store to sync secrets using the Fortanix provider p td tr tr td code passworddepot code br em a href external secrets io v1beta1 PasswordDepotProvider PasswordDepotProvider a em td td em Optional em td tr tr td code passbolt code br em a href external secrets io v1beta1 PassboltProvider PassboltProvider a em td td em Optional em td tr tr td code device42 code br em a href external secrets io v1beta1 Device42Provider Device42Provider a em td td em Optional em p Device42 configures this store to sync secrets using the Device42 provider p td tr tr td code infisical code br em a href external secrets io v1beta1 InfisicalProvider InfisicalProvider a em td td em Optional em p Infisical configures this store to sync secrets using the Infisical provider p td tr tr td code beyondtrust code br em a href external secrets io v1beta1 BeyondtrustProvider BeyondtrustProvider a em td td em Optional em p Beyondtrust configures this store to sync secrets using Password Safe provider p td tr tbody table h3 id external secrets io v1beta1 SecretStoreRef SecretStoreRef h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretSpec ExternalSecretSpec a a href external secrets io v1beta1 StoreGeneratorSourceRef StoreGeneratorSourceRef a a href external secrets io v1beta1 StoreSourceRef StoreSourceRef a p p p SecretStoreRef defines which SecretStore to fetch the ExternalSecret data p p table thead tr th Field th th Description th tr thead tbody tr td code name code br em string em td td p Name of the SecretStore resource p td tr tr td code kind code br em string em td td em Optional em p Kind of the SecretStore resource SecretStore or ClusterSecretStore Defaults to code SecretStore code p td tr tbody table h3 id external secrets io v1beta1 SecretStoreRetrySettings SecretStoreRetrySettings h3 p em Appears on em a href external secrets io v1beta1 SecretStoreSpec SecretStoreSpec a p p p table thead tr th Field th th Description th tr thead tbody tr td code maxRetries code br em int32 em td td td tr tr td code retryInterval code br em string em td td td tr tbody table h3 id external secrets io v1beta1 SecretStoreSpec SecretStoreSpec h3 p em Appears on em a href external secrets io v1beta1 ClusterSecretStore ClusterSecretStore a a href external secrets io v1beta1 SecretStore SecretStore a p p p SecretStoreSpec defines the desired state of SecretStore p p table thead tr th Field th th Description th tr thead tbody tr td code controller code br em string em td td em Optional em p Used to select the correct ESO controller think ingress ingressClassName The ESO controller is instantiated with a specific controller name and filters ES based on this property p td tr tr td code provider code br em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a em td td p Used to configure the provider Only one provider may be set p td tr tr td code retrySettings code br em a href external secrets io v1beta1 SecretStoreRetrySettings SecretStoreRetrySettings a em td td em Optional em p Used to configure http retries if failed p td tr tr td code refreshInterval code br em int em td td em Optional em p Used to configure store refresh interval in seconds Empty or 0 will default to the controller config p td tr tr td code conditions code br em a href external secrets io v1beta1 ClusterSecretStoreCondition ClusterSecretStoreCondition a em td td em Optional em p Used to constraint a ClusterSecretStore to specific namespaces Relevant only to ClusterSecretStore p td tr tbody table h3 id external secrets io v1beta1 SecretStoreStatus SecretStoreStatus h3 p em Appears on em a href external secrets io v1beta1 ClusterSecretStore ClusterSecretStore a a href external secrets io v1beta1 SecretStore SecretStore a p p p SecretStoreStatus defines the observed state of the SecretStore p p table thead tr th Field th th Description th tr thead tbody tr td code conditions code br em a href external secrets io v1beta1 SecretStoreStatusCondition SecretStoreStatusCondition a em td td em Optional em td tr tr td code capabilities code br em a href external secrets io v1beta1 SecretStoreCapabilities SecretStoreCapabilities a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 SecretStoreStatusCondition SecretStoreStatusCondition h3 p em Appears on em a href external secrets io v1beta1 SecretStoreStatus SecretStoreStatus a p p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href external secrets io v1beta1 SecretStoreConditionType SecretStoreConditionType a em td td td tr tr td code status code br em a href https kubernetes io docs reference generated kubernetes api v1 25 conditionstatus v1 core Kubernetes core v1 ConditionStatus a em td td td tr tr td code reason code br em string em td td em Optional em td tr tr td code message code br em string em td td em Optional em td tr tr td code lastTransitionTime code br em a href https kubernetes io docs reference generated kubernetes api v1 25 time v1 meta Kubernetes meta v1 Time a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 SecretsClient SecretsClient h3 p p SecretsClient provides access to secrets p p h3 id external secrets io v1beta1 SecretsManager SecretsManager h3 p em Appears on em a href external secrets io v1beta1 AWSProvider AWSProvider a p p p SecretsManager defines how the provider behaves when interacting with AWS SecretsManager Some of these settings are only applicable to controlling how secrets are deleted and hence only apply to PushSecret and only when deletionPolicy is set to Delete p p table thead tr th Field th th Description th tr thead tbody tr td code forceDeleteWithoutRecovery code br em bool em td td em Optional em p Specifies whether to delete the secret without any recovery window You can rsquo t use both this parameter and RecoveryWindowInDays in the same call If you don rsquo t use either then by default Secrets Manager uses a 30 day recovery window see a href https docs aws amazon com secretsmanager latest apireference API DeleteSecret html SecretsManager DeleteSecret request ForceDeleteWithoutRecovery https docs aws amazon com secretsmanager latest apireference API DeleteSecret html SecretsManager DeleteSecret request ForceDeleteWithoutRecovery a p td tr tr td code recoveryWindowInDays code br em int64 em td td em Optional em p The number of days from 7 to 30 that Secrets Manager waits before permanently deleting the secret You can rsquo t use both this parameter and ForceDeleteWithoutRecovery in the same call If you don rsquo t use either then by default Secrets Manager uses a 30 day recovery window see a href https docs aws amazon com secretsmanager latest apireference API DeleteSecret html SecretsManager DeleteSecret request RecoveryWindowInDays https docs aws amazon com secretsmanager latest apireference API DeleteSecret html SecretsManager DeleteSecret request RecoveryWindowInDays a p td tr tbody table h3 id external secrets io v1beta1 SenhaseguraAuth SenhaseguraAuth h3 p em Appears on em a href external secrets io v1beta1 SenhaseguraProvider SenhaseguraProvider a p p p SenhaseguraAuth tells the controller how to do auth in senhasegura p p table thead tr th Field th th Description th tr thead tbody tr td code clientId code br em string em td td td tr tr td code clientSecretSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 SenhaseguraModuleType SenhaseguraModuleType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 SenhaseguraProvider SenhaseguraProvider a p p p SenhaseguraModuleType enum defines senhasegura target module to fetch secrets p p table thead tr th Value th th Description th tr thead tbody tr td p 34 DSM 34 p td td pre code SenhaseguraModuleDSM is the senhasegura DevOps Secrets Management module see https senhasegura com devops code pre td tr tbody table h3 id external secrets io v1beta1 SenhaseguraProvider SenhaseguraProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p SenhaseguraProvider setup a store to sync secrets with senhasegura p p table thead tr th Field th th Description th tr thead tbody tr td code url code br em string em td td p URL of senhasegura p td tr tr td code module code br em a href external secrets io v1beta1 SenhaseguraModuleType SenhaseguraModuleType a em td td p Module defines which senhasegura module should be used to get secrets p td tr tr td code auth code br em a href external secrets io v1beta1 SenhaseguraAuth SenhaseguraAuth a em td td p Auth defines parameters to authenticate in senhasegura p td tr tr td code ignoreSslCertificate code br em bool em td td p IgnoreSslCertificate defines if SSL certificate must be ignored p td tr tbody table h3 id external secrets io v1beta1 StoreGeneratorSourceRef StoreGeneratorSourceRef h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretDataFromRemoteRef ExternalSecretDataFromRemoteRef a p p p StoreGeneratorSourceRef allows you to override the source from which the secret will be pulled from You can define at maximum one property p p table thead tr th Field th th Description th tr thead tbody tr td code storeRef code br em a href external secrets io v1beta1 SecretStoreRef SecretStoreRef a em td td em Optional em td tr tr td code generatorRef code br em a href external secrets io v1beta1 GeneratorRef GeneratorRef a em td td em Optional em p GeneratorRef points to a generator custom resource p td tr tbody table h3 id external secrets io v1beta1 StoreSourceRef StoreSourceRef h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretData ExternalSecretData a p p p StoreSourceRef allows you to override the SecretStore source from which the secret will be pulled from You can define at maximum one property p p table thead tr th Field th th Description th tr thead tbody tr td code storeRef code br em a href external secrets io v1beta1 SecretStoreRef SecretStoreRef a em td td em Optional em td tr tr td code generatorRef code br em a href external secrets io v1beta1 GeneratorRef GeneratorRef a em td td p GeneratorRef points to a generator custom resource p p Deprecated The generatorRef is not implemented in data this will be removed with v1 p td tr tbody table h3 id external secrets io v1beta1 Tag Tag h3 p p table thead tr th Field th th Description th tr thead tbody tr td code key code br em string em td td td tr tr td code value code br em string em td td td tr tbody table h3 id external secrets io v1beta1 TemplateEngineVersion TemplateEngineVersion code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 v1 34 p td td td tr tr td p 34 v2 34 p td td td tr tbody table h3 id external secrets io v1beta1 TemplateFrom TemplateFrom h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate a p p p table thead tr th Field th th Description th tr thead tbody tr td code configMap code br em a href external secrets io v1beta1 TemplateRef TemplateRef a em td td td tr tr td code secret code br em a href external secrets io v1beta1 TemplateRef TemplateRef a em td td td tr tr td code target code br em a href external secrets io v1beta1 TemplateTarget TemplateTarget a em td td em Optional em td tr tr td code literal code br em string em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 TemplateMergePolicy TemplateMergePolicy code string code alias p h3 p em Appears on em a href external secrets io v1beta1 ExternalSecretTemplate ExternalSecretTemplate a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Merge 34 p td td td tr tr td p 34 Replace 34 p td td td tr tbody table h3 id external secrets io v1beta1 TemplateRef TemplateRef h3 p em Appears on em a href external secrets io v1beta1 TemplateFrom TemplateFrom a p p p table thead tr th Field th th Description th tr thead tbody tr td code name code br em string em td td p The name of the ConfigMap Secret resource p td tr tr td code items code br em a href external secrets io v1beta1 TemplateRefItem TemplateRefItem a em td td p A list of keys in the ConfigMap Secret to use as templates for Secret data p td tr tbody table h3 id external secrets io v1beta1 TemplateRefItem TemplateRefItem h3 p em Appears on em a href external secrets io v1beta1 TemplateRef TemplateRef a p p p table thead tr th Field th th Description th tr thead tbody tr td code key code br em string em td td p A key in the ConfigMap Secret p td tr tr td code templateAs code br em a href external secrets io v1beta1 TemplateScope TemplateScope a em td td td tr tbody table h3 id external secrets io v1beta1 TemplateScope TemplateScope code string code alias p h3 p em Appears on em a href external secrets io v1beta1 TemplateRefItem TemplateRefItem a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 KeysAndValues 34 p td td td tr tr td p 34 Values 34 p td td td tr tbody table h3 id external secrets io v1beta1 TemplateTarget TemplateTarget code string code alias p h3 p em Appears on em a href external secrets io v1beta1 TemplateFrom TemplateFrom a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 Annotations 34 p td td td tr tr td p 34 Data 34 p td td td tr tr td p 34 Labels 34 p td td td tr tbody table h3 id external secrets io v1beta1 TokenAuth TokenAuth h3 p em Appears on em a href external secrets io v1beta1 KubernetesAuth KubernetesAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code bearerToken code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 UniversalAuthCredentials UniversalAuthCredentials h3 p em Appears on em a href external secrets io v1beta1 InfisicalAuth InfisicalAuth a p p p table thead tr th Field th th Description th tr thead tbody tr td code clientId code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tr td code clientSecret code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 ValidationResult ValidationResult code byte code alias p h3 p p table thead tr th Value th th Description th tr thead tbody tr td p 2 p td td p Error indicates that there is a misconfiguration p td tr tr td p 0 p td td p Ready indicates that the client is configured correctly and can be used p td tr tr td p 1 p td td p Unknown indicates that the client can be used but information is missing and it can not be validated p td tr tbody table h3 id external secrets io v1beta1 VaultAppRole VaultAppRole h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultAppRole authenticates with Vault using the App Role auth mechanism with the role and secret stored in a Kubernetes Secret resource p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td p Path where the App Role authentication backend is mounted in Vault e g ldquo approle rdquo p td tr tr td code roleId code br em string em td td em Optional em p RoleID configured in the App Role authentication backend when setting up the authentication backend in Vault p td tr tr td code roleRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Reference to a key in a Secret that contains the App Role ID used to authenticate with Vault The code key code field must be specified and denotes which entry within the Secret resource is used as the app role id p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p Reference to a key in a Secret that contains the App Role secret used to authenticate with Vault The code key code field must be specified and denotes which entry within the Secret resource is used as the app role secret p td tr tbody table h3 id external secrets io v1beta1 VaultAuth VaultAuth h3 p em Appears on em a href external secrets io v1beta1 VaultProvider VaultProvider a p p p VaultAuth is the configuration used to authenticate with a Vault server Only one of code tokenSecretRef code code appRole code code kubernetes code code ldap code code userPass code code jwt code or code cert code can be specified A namespace to authenticate against can optionally be specified p p table thead tr th Field th th Description th tr thead tbody tr td code namespace code br em string em td td em Optional em p Name of the vault namespace to authenticate to This can be different than the namespace your secret is in Namespaces is a set of features within Vault Enterprise that allows Vault environments to support Secure Multi tenancy e g ldquo ns1 rdquo More about namespaces can be found here a href https www vaultproject io docs enterprise namespaces https www vaultproject io docs enterprise namespaces a This will default to Vault Namespace field if set or empty otherwise p td tr tr td code tokenSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p TokenSecretRef authenticates with Vault by presenting a token p td tr tr td code appRole code br em a href external secrets io v1beta1 VaultAppRole VaultAppRole a em td td em Optional em p AppRole authenticates with Vault using the App Role auth mechanism with the role and secret stored in a Kubernetes Secret resource p td tr tr td code kubernetes code br em a href external secrets io v1beta1 VaultKubernetesAuth VaultKubernetesAuth a em td td em Optional em p Kubernetes authenticates with Vault by passing the ServiceAccount token stored in the named Secret resource to the Vault server p td tr tr td code ldap code br em a href external secrets io v1beta1 VaultLdapAuth VaultLdapAuth a em td td em Optional em p Ldap authenticates with Vault by passing username password pair using the LDAP authentication method p td tr tr td code jwt code br em a href external secrets io v1beta1 VaultJwtAuth VaultJwtAuth a em td td em Optional em p Jwt authenticates with Vault by passing role and JWT token using the JWT OIDC authentication method p td tr tr td code cert code br em a href external secrets io v1beta1 VaultCertAuth VaultCertAuth a em td td em Optional em p Cert authenticates with TLS Certificates by passing client certificate private key and ca certificate Cert authentication method p td tr tr td code iam code br em a href external secrets io v1beta1 VaultIamAuth VaultIamAuth a em td td em Optional em p Iam authenticates with vault by passing a special AWS request signed with AWS IAM credentials AWS IAM authentication method p td tr tr td code userPass code br em a href external secrets io v1beta1 VaultUserPassAuth VaultUserPassAuth a em td td em Optional em p UserPass authenticates with Vault by passing username password pair p td tr tbody table h3 id external secrets io v1beta1 VaultAwsAuth VaultAwsAuth h3 p p VaultAwsAuth tells the controller how to do authentication with aws Only one of secretRef or jwt can be specified if none is specified the controller will try to load credentials from its own service account assuming it is IRSA enabled p p table thead tr th Field th th Description th tr thead tbody tr td code secretRef code br em a href external secrets io v1beta1 VaultAwsAuthSecretRef VaultAwsAuthSecretRef a em td td em Optional em td tr tr td code jwt code br em a href external secrets io v1beta1 VaultAwsJWTAuth VaultAwsJWTAuth a em td td em Optional em td tr tbody table h3 id external secrets io v1beta1 VaultAwsAuthSecretRef VaultAwsAuthSecretRef h3 p em Appears on em a href external secrets io v1beta1 VaultAwsAuth VaultAwsAuth a a href external secrets io v1beta1 VaultIamAuth VaultIamAuth a p p p VaultAWSAuthSecretRef holds secret references for AWS credentials both AccessKeyID and SecretAccessKey must be defined in order to properly authenticate p p table thead tr th Field th th Description th tr thead tbody tr td code accessKeyIDSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The AccessKeyID is used for authentication p td tr tr td code secretAccessKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SecretAccessKey is used for authentication p td tr tr td code sessionTokenSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p The SessionToken used for authentication This must be defined if AccessKeyID and SecretAccessKey are temporary credentials see a href https docs aws amazon com IAM latest UserGuide id credentials temp use resources html https docs aws amazon com IAM latest UserGuide id credentials temp use resources html a p td tr tbody table h3 id external secrets io v1beta1 VaultAwsJWTAuth VaultAwsJWTAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAwsAuth VaultAwsAuth a a href external secrets io v1beta1 VaultIamAuth VaultIamAuth a p p p Authenticate against AWS using service account tokens p p table thead tr th Field th th Description th tr thead tbody tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td td tr tbody table h3 id external secrets io v1beta1 VaultCertAuth VaultCertAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultJwtAuth authenticates with Vault using the JWT OIDC authentication method with the role name and token stored in a Kubernetes Secret resource p p table thead tr th Field th th Description th tr thead tbody tr td code clientCert code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p ClientCert is a certificate to authenticate using the Cert Vault authentication method p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretRef to a key in a Secret resource containing client private key to authenticate with Vault using the Cert authentication method p td tr tbody table h3 id external secrets io v1beta1 VaultClientTLS VaultClientTLS h3 p em Appears on em a href external secrets io v1beta1 VaultProvider VaultProvider a p p p VaultClientTLS is the configuration used for client side related TLS communication when the Vault server requires mutual authentication p p table thead tr th Field th th Description th tr thead tbody tr td code certSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p CertSecretRef is a certificate added to the transport layer when communicating with the Vault server If no key for the Secret is specified external secret will default to lsquo tls crt rsquo p td tr tr td code keySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p KeySecretRef to a key in a Secret resource containing client private key added to the transport layer when communicating with the Vault server If no key for the Secret is specified external secret will default to lsquo tls key rsquo p td tr tbody table h3 id external secrets io v1beta1 VaultIamAuth VaultIamAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultIamAuth authenticates with Vault using the Vault rsquo s AWS IAM authentication method Refer a href https developer hashicorp com vault docs auth aws https developer hashicorp com vault docs auth aws a p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td p Path where the AWS auth method is enabled in Vault e g ldquo aws rdquo p td tr tr td code region code br em string em td td p AWS region p td tr tr td code role code br em string em td td p This is the AWS role to be assumed before talking to vault p td tr tr td code vaultRole code br em string em td td p Vault Role In vault a role describes an identity with a set of permissions groups or policies you want to attach a user of the secrets engine p td tr tr td code externalID code br em string em td td p AWS External ID set on assumed IAM roles p td tr tr td code vaultAwsIamServerID code br em string em td td p X Vault AWS IAM Server ID is an additional header used by Vault IAM auth method to mitigate against different types of replay attacks More details here a href https developer hashicorp com vault docs auth aws https developer hashicorp com vault docs auth aws a p td tr tr td code secretRef code br em a href external secrets io v1beta1 VaultAwsAuthSecretRef VaultAwsAuthSecretRef a em td td em Optional em p Specify credentials in a Secret object p td tr tr td code jwt code br em a href external secrets io v1beta1 VaultAwsJWTAuth VaultAwsJWTAuth a em td td em Optional em p Specify a service account with IRSA enabled p td tr tbody table h3 id external secrets io v1beta1 VaultJwtAuth VaultJwtAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultJwtAuth authenticates with Vault using the JWT OIDC authentication method with the role name and a token stored in a Kubernetes Secret resource or a Kubernetes service account token retrieved via code TokenRequest code p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td p Path where the JWT authentication backend is mounted in Vault e g ldquo jwt rdquo p td tr tr td code role code br em string em td td em Optional em p Role is a JWT role to authenticate using the JWT OIDC Vault authentication method p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Optional SecretRef that refers to a key in a Secret resource containing JWT token to authenticate with Vault using the JWT OIDC authentication method p td tr tr td code kubernetesServiceAccountToken code br em a href external secrets io v1beta1 VaultKubernetesServiceAccountTokenAuth VaultKubernetesServiceAccountTokenAuth a em td td em Optional em p Optional ServiceAccountToken specifies the Kubernetes service account for which to request a token for with the code TokenRequest code API p td tr tbody table h3 id external secrets io v1beta1 VaultKVStoreVersion VaultKVStoreVersion code string code alias p h3 p em Appears on em a href external secrets io v1beta1 VaultProvider VaultProvider a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 v1 34 p td td td tr tr td p 34 v2 34 p td td td tr tbody table h3 id external secrets io v1beta1 VaultKubernetesAuth VaultKubernetesAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p Authenticate against Vault using a Kubernetes ServiceAccount token stored in a Secret p p table thead tr th Field th th Description th tr thead tbody tr td code mountPath code br em string em td td p Path where the Kubernetes authentication backend is mounted in Vault e g ldquo kubernetes rdquo p td tr tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td em Optional em p Optional service account field containing the name of a kubernetes ServiceAccount If the service account is specified the service account secret token JWT will be used for authenticating with Vault If the service account selector is not supplied the secretRef will be used instead p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p Optional secret field containing a Kubernetes ServiceAccount JWT used for authenticating with Vault If a name is specified without a key code token code is the default If one is not specified the one bound to the controller will be used p td tr tr td code role code br em string em td td p A required field containing the Vault Role to assume A Role binds a Kubernetes ServiceAccount with a set of Vault policies p td tr tbody table h3 id external secrets io v1beta1 VaultKubernetesServiceAccountTokenAuth VaultKubernetesServiceAccountTokenAuth h3 p em Appears on em a href external secrets io v1beta1 VaultJwtAuth VaultJwtAuth a p p p VaultKubernetesServiceAccountTokenAuth authenticates with Vault using a temporary Kubernetes service account token retrieved by the code TokenRequest code API p p table thead tr th Field th th Description th tr thead tbody tr td code serviceAccountRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 ServiceAccountSelector External Secrets meta v1 ServiceAccountSelector a em td td p Service account field containing the name of a kubernetes ServiceAccount p td tr tr td code audiences code br em string em td td em Optional em p Optional audiences field that will be used to request a temporary Kubernetes service account token for the service account referenced by code serviceAccountRef code Defaults to a single audience code vault code it not specified Deprecated use serviceAccountRef Audiences instead p td tr tr td code expirationSeconds code br em int64 em td td em Optional em p Optional expiration time in seconds that will be used to request a temporary Kubernetes service account token for the service account referenced by code serviceAccountRef code Deprecated this will be removed in the future Defaults to 10 minutes p td tr tbody table h3 id external secrets io v1beta1 VaultLdapAuth VaultLdapAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultLdapAuth authenticates with Vault using the LDAP authentication method with the username and password stored in a Kubernetes Secret resource p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td p Path where the LDAP authentication backend is mounted in Vault e g ldquo ldap rdquo p td tr tr td code username code br em string em td td p Username is a LDAP user name used to authenticate using the LDAP Vault authentication method p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretRef to a key in a Secret resource containing password for the LDAP user used to authenticate with Vault using the LDAP authentication method p td tr tbody table h3 id external secrets io v1beta1 VaultProvider VaultProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p Configures an store to sync secrets using a HashiCorp Vault KV backend p p table thead tr th Field th th Description th tr thead tbody tr td code auth code br em a href external secrets io v1beta1 VaultAuth VaultAuth a em td td p Auth configures how secret manager authenticates with the Vault server p td tr tr td code server code br em string em td td p Server is the connection address for the Vault server e g ldquo a href https vault example com 8200 quot https vault example com 8200 rdquo a p td tr tr td code path code br em string em td td em Optional em p Path is the mount path of the Vault KV backend endpoint e g ldquo secret rdquo The v2 KV secret engine version specific ldquo data rdquo path suffix for fetching secrets from Vault is optional and will be appended if not present in specified path p td tr tr td code version code br em a href external secrets io v1beta1 VaultKVStoreVersion VaultKVStoreVersion a em td td p Version is the Vault KV secret engine version This can be either ldquo v1 rdquo or ldquo v2 rdquo Version defaults to ldquo v2 rdquo p td tr tr td code namespace code br em string em td td em Optional em p Name of the vault namespace Namespaces is a set of features within Vault Enterprise that allows Vault environments to support Secure Multi tenancy e g ldquo ns1 rdquo More about namespaces can be found here a href https www vaultproject io docs enterprise namespaces https www vaultproject io docs enterprise namespaces a p td tr tr td code caBundle code br em byte em td td em Optional em p PEM encoded CA bundle used to validate Vault server certificate Only used if the Server URL is using HTTPS protocol This parameter is ignored for plain HTTP protocol connection If not set the system root certificates are used to validate the TLS connection p td tr tr td code tls code br em a href external secrets io v1beta1 VaultClientTLS VaultClientTLS a em td td em Optional em p The configuration used for client side related TLS communication when the Vault server requires mutual authentication Only used if the Server URL is using HTTPS protocol This parameter is ignored for plain HTTP protocol connection It rsquo s worth noting this configuration is different from the ldquo TLS certificates auth method rdquo which is available under the code auth cert code section p td tr tr td code caProvider code br em a href external secrets io v1beta1 CAProvider CAProvider a em td td em Optional em p The provider for the CA bundle to use to validate Vault server certificate p td tr tr td code readYourWrites code br em bool em td td em Optional em p ReadYourWrites ensures isolated read after write semantics by providing discovered cluster replication states in each request More information about eventual consistency in Vault can be found here a href https www vaultproject io docs enterprise consistency https www vaultproject io docs enterprise consistency a p td tr tr td code forwardInconsistent code br em bool em td td em Optional em p ForwardInconsistent tells Vault to forward read after write requests to the Vault leader instead of simply retrying within a loop This can increase performance if the option is enabled serverside a href https www vaultproject io docs configuration replication allow forwarding via header https www vaultproject io docs configuration replication allow forwarding via header a p td tr tr td code headers code br em map string string em td td em Optional em p Headers to be added in Vault request p td tr tbody table h3 id external secrets io v1beta1 VaultUserPassAuth VaultUserPassAuth h3 p em Appears on em a href external secrets io v1beta1 VaultAuth VaultAuth a p p p VaultUserPassAuth authenticates with Vault using UserPass authentication method with the username and password stored in a Kubernetes Secret resource p p table thead tr th Field th th Description th tr thead tbody tr td code path code br em string em td td p Path where the UserPassword authentication backend is mounted in Vault e g ldquo user rdquo p td tr tr td code username code br em string em td td p Username is a user name used to authenticate using the UserPass Vault authentication method p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p SecretRef to a key in a Secret resource containing password for the user used to authenticate with Vault using the UserPass authentication method p td tr tbody table h3 id external secrets io v1beta1 WebhookCAProvider WebhookCAProvider h3 p em Appears on em a href external secrets io v1beta1 WebhookProvider WebhookProvider a p p p Defines a location to fetch the cert for the webhook provider from p p table thead tr th Field th th Description th tr thead tbody tr td code type code br em a href external secrets io v1beta1 WebhookCAProviderType WebhookCAProviderType a em td td p The type of provider to use such as ldquo Secret rdquo or ldquo ConfigMap rdquo p td tr tr td code name code br em string em td td p The name of the object located at the provider type p td tr tr td code key code br em string em td td p The key where the CA certificate can be found in the Secret or ConfigMap p td tr tr td code namespace code br em string em td td em Optional em p The namespace the Provider type is in p td tr tbody table h3 id external secrets io v1beta1 WebhookCAProviderType WebhookCAProviderType code string code alias p h3 p em Appears on em a href external secrets io v1beta1 WebhookCAProvider WebhookCAProvider a p p p table thead tr th Value th th Description th tr thead tbody tr td p 34 ConfigMap 34 p td td td tr tr td p 34 Secret 34 p td td td tr tbody table h3 id external secrets io v1beta1 WebhookProvider WebhookProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p AkeylessProvider Configures an store to sync secrets using Akeyless KV p p table thead tr th Field th th Description th tr thead tbody tr td code method code br em string em td td p Webhook Method p td tr tr td code url code br em string em td td p Webhook url to call p td tr tr td code headers code br em map string string em td td em Optional em p Headers p td tr tr td code body code br em string em td td em Optional em p Body p td tr tr td code timeout code br em a href https pkg go dev k8s io apimachinery pkg apis meta v1 Duration Kubernetes meta v1 Duration a em td td em Optional em p Timeout p td tr tr td code result code br em a href external secrets io v1beta1 WebhookResult WebhookResult a em td td p Result formatting p td tr tr td code secrets code br em a href external secrets io v1beta1 WebhookSecret WebhookSecret a em td td em Optional em p Secrets to fill in templates These secrets will be passed to the templating function as key value pairs under the given name p td tr tr td code caBundle code br em byte em td td em Optional em p PEM encoded CA bundle used to validate webhook server certificate Only used if the Server URL is using HTTPS protocol This parameter is ignored for plain HTTP protocol connection If not set the system root certificates are used to validate the TLS connection p td tr tr td code caProvider code br em a href external secrets io v1beta1 WebhookCAProvider WebhookCAProvider a em td td em Optional em p The provider for the CA bundle to use to validate webhook server certificate p td tr tbody table h3 id external secrets io v1beta1 WebhookResult WebhookResult h3 p em Appears on em a href external secrets io v1beta1 WebhookProvider WebhookProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code jsonPath code br em string em td td em Optional em p Json path of return value p td tr tbody table h3 id external secrets io v1beta1 WebhookSecret WebhookSecret h3 p em Appears on em a href external secrets io v1beta1 WebhookProvider WebhookProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code name code br em string em td td p Name of this secret in templates p td tr tr td code secretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td p Secret ref to fill in credentials p td tr tbody table h3 id external secrets io v1beta1 YandexCertificateManagerAuth YandexCertificateManagerAuth h3 p em Appears on em a href external secrets io v1beta1 YandexCertificateManagerProvider YandexCertificateManagerProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code authorizedKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The authorized key used for authentication p td tr tbody table h3 id external secrets io v1beta1 YandexCertificateManagerCAProvider YandexCertificateManagerCAProvider h3 p em Appears on em a href external secrets io v1beta1 YandexCertificateManagerProvider YandexCertificateManagerProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code certSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 YandexCertificateManagerProvider YandexCertificateManagerProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p YandexCertificateManagerProvider Configures a store to sync secrets using the Yandex Certificate Manager provider p p table thead tr th Field th th Description th tr thead tbody tr td code apiEndpoint code br em string em td td em Optional em p Yandex Cloud API endpoint e g lsquo api cloud yandex net 443 rsquo p td tr tr td code auth code br em a href external secrets io v1beta1 YandexCertificateManagerAuth YandexCertificateManagerAuth a em td td p Auth defines the information necessary to authenticate against Yandex Certificate Manager p td tr tr td code caProvider code br em a href external secrets io v1beta1 YandexCertificateManagerCAProvider YandexCertificateManagerCAProvider a em td td em Optional em p The provider for the CA bundle to use to validate Yandex Cloud server certificate p td tr tbody table h3 id external secrets io v1beta1 YandexLockboxAuth YandexLockboxAuth h3 p em Appears on em a href external secrets io v1beta1 YandexLockboxProvider YandexLockboxProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code authorizedKeySecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td em Optional em p The authorized key used for authentication p td tr tbody table h3 id external secrets io v1beta1 YandexLockboxCAProvider YandexLockboxCAProvider h3 p em Appears on em a href external secrets io v1beta1 YandexLockboxProvider YandexLockboxProvider a p p p table thead tr th Field th th Description th tr thead tbody tr td code certSecretRef code br em a href https pkg go dev github com external secrets external secrets apis meta v1 SecretKeySelector External Secrets meta v1 SecretKeySelector a em td td td tr tbody table h3 id external secrets io v1beta1 YandexLockboxProvider YandexLockboxProvider h3 p em Appears on em a href external secrets io v1beta1 SecretStoreProvider SecretStoreProvider a p p p YandexLockboxProvider Configures a store to sync secrets using the Yandex Lockbox provider p p table thead tr th Field th th Description th tr thead tbody tr td code apiEndpoint code br em string em td td em Optional em p Yandex Cloud API endpoint e g lsquo api cloud yandex net 443 rsquo p td tr tr td code auth code br em a href external secrets io v1beta1 YandexLockboxAuth YandexLockboxAuth a em td td p Auth defines the information necessary to authenticate against Yandex Lockbox p td tr tr td code caProvider code br em a href external secrets io v1beta1 YandexLockboxCAProvider YandexLockboxCAProvider a em td td em Optional em p The provider for the CA bundle to use to validate Yandex Cloud server certificate p td tr tbody table hr p em Generated with code gen crd api reference docs code em p |
external-dns NOTE Your Pi hole must be running Pi hole Pi hole has an internal list it checks last when resolving requests This list can contain any number of arbitrary A AAAA or CNAME records Deploy ExternalDNS This tutorial describes how to setup ExternalDNS to sync records with Pi hole s Custom DNS There is a pseudo API exposed that ExternalDNS is able to use to manage these records | # Pi-hole
This tutorial describes how to setup ExternalDNS to sync records with Pi-hole's Custom DNS.
Pi-hole has an internal list it checks last when resolving requests. This list can contain any number of arbitrary A, AAAA or CNAME records.
There is a pseudo-API exposed that ExternalDNS is able to use to manage these records.
__NOTE:__ Your Pi-hole must be running [version 5.9 or newer](https://pi-hole.net/blog/2022/02/12/pi-hole-ftl-v5-14-web-v5-11-and-core-v5-9-released).
## Deploy ExternalDNS
You can skip to the [manifest](#externaldns-manifest) if authentication is disabled on your Pi-hole instance or you don't want to use secrets.
If your Pi-hole server's admin dashboard is protected by a password, you'll likely want to create a secret first containing its value.
This is optional since you _do_ retain the option to pass it as a flag with `--pihole-password`.
You can create the secret with:
```bash
kubectl create secret generic pihole-password \
--from-literal EXTERNAL_DNS_PIHOLE_PASSWORD=supersecret
```
Replacing **"supersecret"** with the actual password to your Pi-hole server.
### ExternalDNS Manifest
Apply the following manifest to deploy ExternalDNS, editing values for your environment accordingly.
Be sure to change the namespace in the `ClusterRoleBinding` if you are using a namespace other than **default**.
```yaml
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list","watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
# If authentication is disabled and/or you didn't create
# a secret, you can remove this block.
envFrom:
- secretRef:
# Change this if you gave the secret a different name
name: pihole-password
args:
- --source=service
- --source=ingress
# Pihole only supports A/AAAA/CNAME records so there is no mechanism to track ownership.
# You don't need to set this flag, but if you leave it unset, you will receive warning
# logs when ExternalDNS attempts to create TXT records.
- --registry=noop
# IMPORTANT: If you have records that you manage manually in Pi-hole, set
# the policy to upsert-only so they do not get deleted.
- --policy=upsert-only
- --provider=pihole
# Change this to the actual address of your Pi-hole web server
- --pihole-server=http://pihole-web.pihole.svc.cluster.local
securityContext:
fsGroup: 65534 # For ExternalDNS to be able to read Kubernetes token files
```
### Arguments
- `--pihole-server (env: EXTERNAL_DNS_PIHOLE_SERVER)` - The address of the Pi-hole web server
- `--pihole-password (env: EXTERNAL_DNS_PIHOLE_PASSWORD)` - The password to the Pi-hole web server (if enabled)
- `--pihole-tls-skip-verify (env: EXTERNAL_DNS_PIHOLE_TLS_SKIP_VERIFY)` - Skip verification of any TLS certificates served by the Pi-hole web server.
## Verify ExternalDNS Works
### Ingress Example
Create an Ingress resource. ExternalDNS will use the hostname specified in the Ingress object.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: foo
spec:
ingressClassName: nginx
rules:
- host: foo.bar.com
http:
paths:
- path: /
pathType: Prefix
backend:
service:
name: foo
port:
number: 80
```
### Service Example
The below sample application can be used to verify Services work.
For services ExternalDNS will look for the annotation `external-dns.alpha.kubernetes.io/hostname` on the service and use the corresponding value.
```yaml
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.homelab.com
spec:
type: LoadBalancer
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
name: http
```
You can then query your Pi-hole to see if the record was created.
_Change `@192.168.100.2` to the actual address of your DNS server_
```bash
$ dig +short @192.168.100.2 nginx.external-dns-test.homelab.com
192.168.100.129
``` | external-dns | Pi hole This tutorial describes how to setup ExternalDNS to sync records with Pi hole s Custom DNS Pi hole has an internal list it checks last when resolving requests This list can contain any number of arbitrary A AAAA or CNAME records There is a pseudo API exposed that ExternalDNS is able to use to manage these records NOTE Your Pi hole must be running version 5 9 or newer https pi hole net blog 2022 02 12 pi hole ftl v5 14 web v5 11 and core v5 9 released Deploy ExternalDNS You can skip to the manifest externaldns manifest if authentication is disabled on your Pi hole instance or you don t want to use secrets If your Pi hole server s admin dashboard is protected by a password you ll likely want to create a secret first containing its value This is optional since you do retain the option to pass it as a flag with pihole password You can create the secret with bash kubectl create secret generic pihole password from literal EXTERNAL DNS PIHOLE PASSWORD supersecret Replacing supersecret with the actual password to your Pi hole server ExternalDNS Manifest Apply the following manifest to deploy ExternalDNS editing values for your environment accordingly Be sure to change the namespace in the ClusterRoleBinding if you are using a namespace other than default yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 If authentication is disabled and or you didn t create a secret you can remove this block envFrom secretRef Change this if you gave the secret a different name name pihole password args source service source ingress Pihole only supports A AAAA CNAME records so there is no mechanism to track ownership You don t need to set this flag but if you leave it unset you will receive warning logs when ExternalDNS attempts to create TXT records registry noop IMPORTANT If you have records that you manage manually in Pi hole set the policy to upsert only so they do not get deleted policy upsert only provider pihole Change this to the actual address of your Pi hole web server pihole server http pihole web pihole svc cluster local securityContext fsGroup 65534 For ExternalDNS to be able to read Kubernetes token files Arguments pihole server env EXTERNAL DNS PIHOLE SERVER The address of the Pi hole web server pihole password env EXTERNAL DNS PIHOLE PASSWORD The password to the Pi hole web server if enabled pihole tls skip verify env EXTERNAL DNS PIHOLE TLS SKIP VERIFY Skip verification of any TLS certificates served by the Pi hole web server Verify ExternalDNS Works Ingress Example Create an Ingress resource ExternalDNS will use the hostname specified in the Ingress object yaml apiVersion networking k8s io v1 kind Ingress metadata name foo spec ingressClassName nginx rules host foo bar com http paths path pathType Prefix backend service name foo port number 80 Service Example The below sample application can be used to verify Services work For services ExternalDNS will look for the annotation external dns alpha kubernetes io hostname on the service and use the corresponding value yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test homelab com spec type LoadBalancer ports port 80 name http targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 name http You can then query your Pi hole to see if the record was created Change 192 168 100 2 to the actual address of your DNS server bash dig short 192 168 100 2 nginx external dns test homelab com 192 168 100 129 |
external-dns If you prefer to try out ExternalDNS in one of the existing environments you can skip this step GKE with default controller This tutorial describes how to setup ExternalDNS for usage within a cluster Make sure to use 0 11 0 version of ExternalDNS for this tutorial The following instructions use to provide ExternalDNS with the permissions it needs to manage DNS records within a single the organizing entity to allocate resources Single project test scenario using access scopes | # GKE with default controller
This tutorial describes how to setup ExternalDNS for usage within a [GKE](https://cloud.google.com/kubernetes-engine) ([Google Kuberentes Engine](https://cloud.google.com/kubernetes-engine)) cluster. Make sure to use **>=0.11.0** version of ExternalDNS for this tutorial
## Single project test scenario using access scopes
*If you prefer to try-out ExternalDNS in one of the existing environments you can skip this step*
The following instructions use [access scopes](https://cloud.google.com/compute/docs/access/service-accounts#accesscopesiam) to provide ExternalDNS with the permissions it needs to manage DNS records within a single [project](https://cloud.google.com/docs/overview#projects), the organizing entity to allocate resources.
Note that since these permissions are associated with the instance, all pods in the cluster will also have these permissions. As such, this approach is not suitable for anything but testing environments.
This solution will only work when both CloudDNS and GKE are provisioned in the same project. If the CloudDNS zone is in a different project, this solution will not work.
### Configure Project Environment
Set up your environment to work with Google Cloud Platform. Fill in your variables as needed, e.g. target project.
```bash
# set variables to the appropriate desired values
PROJECT_ID="my-external-dns-test"
REGION="europe-west1"
ZONE="europe-west1-d"
ClOUD_BILLING_ACCOUNT="<my-cloud-billing-account>"
# set default settings for project
gcloud config set project $PROJECT_ID
gcloud config set compute/region $REGION
gcloud config set compute/zone $ZONE
# enable billing and APIs if not done already
gcloud beta billing projects link $PROJECT_ID \
--billing-account $BILLING_ACCOUNT
gcloud services enable "dns.googleapis.com"
gcloud services enable "container.googleapis.com"
```
### Create GKE Cluster
```bash
gcloud container clusters create $GKE_CLUSTER_NAME \
--num-nodes 1 \
--scopes "https://www.googleapis.com/auth/ndev.clouddns.readwrite"
```
**WARNING**: Note that this cluster will use the default [compute engine GSA](https://cloud.google.com/compute/docs/access/service-accounts#default_service_account) that contians the overly permissive project editor (`roles/editor`) role. So essentially, anything on the cluster could potentially grant escalated privileges. Also, as mentioned earlier, the access scope `ndev.clouddns.readwrite` will allow anything running on the cluster to have read/write permissions on all Cloud DNS zones within the same project.
### Cloud DNS Zone
Create a DNS zone which will contain the managed DNS records. If using your own domain that was registered with a third-party domain registrar, you should point your domain's name servers to the values under the `nameServers` key. Please consult your registrar's documentation on how to do that. This tutorial will use example domain of `example.com`.
```bash
gcloud dns managed-zones create "example-com" --dns-name "example.com." \
--description "Automatically managed zone by kubernetes.io/external-dns"
```
Make a note of the nameservers that were assigned to your new zone.
```bash
gcloud dns record-sets list \
--zone "example-com" --name "example.com." --type NS
```
Outputs:
```
NAME TYPE TTL DATA
example.com. NS 21600 ns-cloud-e1.googledomains.com.,ns-cloud-e2.googledomains.com.,ns-cloud-e3.googledomains.com.,ns-cloud-e4.googledomains.com.
```
In this case it's `ns-cloud-{e1-e4}.googledomains.com.` but your's could slightly differ, e.g. `{a1-a4}`, `{b1-b4}` etc.
## Cross project access scenario using Google Service Account
More often, following best practices in regards to security and operations, Cloud DNS zones will be managed in a separate project from the Kubernetes cluster. This section shows how setup ExternalDNS to access Cloud DNS from a different project. These steps will also work for single project scenarios as well.
ExternalDNS will need permissions to make changes to the Cloud DNS zone. There are three ways to configure the access needed:
* [Worker Node Service Account](#worker-node-service-account-method)
* [Static Credentials](#static-credentials)
* [Workload Identity](#workload-identity)
### Setup Cloud DNS and GKE
Below are examples on how you can configure Cloud DNS and GKE in separate projects, and then use one of the three methods to grant access to ExternalDNS. Replace the environment variables to values that make sense in your environment.
#### Configure Projects
For this process, create projects with the appropriate APIs enabled.
```bash
# set variables to appropriate desired values
GKE_PROJECT_ID="my-workload-project"
DNS_PROJECT_ID="my-cloud-dns-project"
ClOUD_BILLING_ACCOUNT="<my-cloud-billing-account>"
# enable billing and APIs for DNS project if not done already
gcloud config set project $DNS_PROJECT_ID
gcloud beta billing projects link $CLOUD_DNS_PROJECT \
--billing-account $ClOUD_BILLING_ACCOUNT
gcloud services enable "dns.googleapis.com"
# enable billing and APIs for GKE project if not done already
gcloud config set project $GKE_PROJECT_ID
gcloud beta billing projects link $CLOUD_DNS_PROJECT \
--billing-account $ClOUD_BILLING_ACCOUNT
gcloud services enable "container.googleapis.com"
```
#### Provisioning Cloud DNS
Create a Cloud DNS zone in the designated DNS project.
```bash
gcloud dns managed-zones create "example-com" --project $DNS_PROJECT_ID \
--description "example.com" --dns-name="example.com." --visibility=public
```
If using your own domain that was registered with a third-party domain registrar, you should point your domain's name servers to the values under the `nameServers` key. Please consult your registrar's documentation on how to do that. The example domain of `example.com` will be used for this tutorial.
#### Provisioning a GKE cluster for cross project access
Create a GSA (Google Service Account) and grant it the [minimal set of privileges required](https://cloud.google.com/kubernetes-engine/docs/how-to/hardening-your-cluster#use_least_privilege_sa) for GKE nodes:
```bash
GKE_CLUSTER_NAME="my-external-dns-cluster"
GKE_REGION="us-central1"
GKE_SA_NAME="worker-nodes-sa"
GKE_SA_EMAIL="$GKE_SA_NAME@${GKE_PROJECT_ID}.iam.gserviceaccount.com"
ROLES=(
roles/logging.logWriter
roles/monitoring.metricWriter
roles/monitoring.viewer
roles/stackdriver.resourceMetadata.writer
)
gcloud iam service-accounts create $GKE_SA_NAME \
--display-name $GKE_SA_NAME --project $GKE_PROJECT_ID
# assign google service account to roles in GKE project
for ROLE in ${ROLES[*]}; do
gcloud projects add-iam-policy-binding $GKE_PROJECT_ID \
--member "serviceAccount:$GKE_SA_EMAIL" \
--role $ROLE
done
```
Create a cluster using this service account and enable [workload identity](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity):
```bash
gcloud container clusters create $GKE_CLUSTER_NAME \
--project $GKE_PROJECT_ID --region $GKE_REGION --num-nodes 1 \
--service-account "$GKE_SA_EMAIL" \
--workload-pool "$GKE_PROJECT_ID.svc.id.goog"
```
### Workload Identity
[Workload Identity](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity) allows workloads in your GKE cluster to [authenticate directly to GCP](https://cloud.google.com/kubernetes-engine/docs/concepts/workload-identity#credential-flow) using Kubernetes Service Accounts
You have an option to chose from using the gcloud CLI or using Terraform.
=== "gcloud CLI"
The below instructions assume you are using the default Kubernetes Service account name of `external-dns` in the namespace `external-dns`
Grant the Kubernetes service account DNS `roles/dns.admin` at project level
```shell
gcloud projects add-iam-policy-binding projects/DNS_PROJECT_ID \
--role=roles/dns.admin \
--member=principal://iam.googleapis.com/projects/PROJECT_NUMBER/locations/global/workloadIdentityPools/PROJECT_ID.svc.id.goog/subject/ns/external-dns/sa/external-dns \
--condition=None
```
Replace the following:
* `DNS_PROJECT_ID` : Project ID of your DNS project. If DNS is in the same project as your GKE cluster, use your GKE project.
* `PROJECT_ID`: your Google Cloud project ID of your GKE Cluster
* `PROJECT_NUMBER`: your numerical Google Cloud project number of your GKE cluster
If you wish to change the namespace, replace
* `ns/external-dns` with `ns/<your namespace`
* `sa/external-dns` with `sa/<your ksa>`
=== "Terraform"
The below instructions assume you are using the default Kubernetes Service account name of `external-dns` in the namespace `external-dns`
Create a file called `main.tf` and place in it the below. _Note: If you're an experienced terraform user feel free to split these out in to different files_
```hcl
variable "gke-project" {
type = string
description = "Name of the project that the GKE cluster exists in"
default = "GKE-PROJECT"
}
variable "ksa_name" {
type = string
description = "Name of the Kubernetes service account that will be accessing the DNS Zones"
default = "external-dns"
}
variable "kns_name" {
type = string
description = "Name of the Kubernetes Namespace"
default = "external-dns"
}
data "google_project" "project" {
project_id = var.gke-project
}
locals {
member = "principal://iam.googleapis.com/projects/${data.google_project.project.number}/locations/global/workloadIdentityPools/${var.gke-project}.svc.id.goog/subject/ns/${var.kns_name}/sa/${var.ksa_name}"
}
resource "google_project_iam_member" "external_dns" {
member = local.member
project = "DNS-PROJECT"
role = "roles/dns.reader"
}
resource "google_dns_managed_zone_iam_member" "member" {
project = "DNS-PROJECT"
managed_zone = "ZONE-NAME"
role = "roles/dns.admin"
member = local.member
}
```
Replace the following
* `GKE-PROJECT` : Project that contains your GKE cluster
* `DNS-PROJECT` : Project that holds your DNS zones
You can also change the below if you plan to use a different service account name and namespace
* `variable "ksa_name"` : Name of the Kubernetes service account external-dns will use
* `variable "kns_name"` : Name of the Kubernetes Name Space that will have external-dns installed to
### Worker Node Service Account method
In this method, the GSA (Google Service Account) that is associated with GKE worker nodes will be configured to have access to Cloud DNS.
**WARNING**: This will grant access to modify the Cloud DNS zone records for all containers running on cluster, not just ExternalDNS, so use this option with caution. This is not recommended for production environments.
```bash
GKE_SA_EMAIL="$GKE_SA_NAME@${GKE_PROJECT_ID}.iam.gserviceaccount.com"
# assign google service account to dns.admin role in the cloud dns project
gcloud projects add-iam-policy-binding $DNS_PROJECT_ID \
--member serviceAccount:$GKE_SA_EMAIL \
--role roles/dns.admin
```
After this, follow the steps in [Deploy ExternalDNS](#deploy-externaldns). Make sure to set the `--google-project` flag to match the Cloud DNS project name.
### Static Credentials
In this scenario, a new GSA (Google Service Account) is created that has access to the CloudDNS zone. The credentials for this GSA are saved and installed as a Kubernetes secret that will be used by ExternalDNS.
This allows only containers that have access to the secret, such as ExternalDNS to update records on the Cloud DNS Zone.
#### Create GSA for use with static credentials
```bash
DNS_SA_NAME="external-dns-sa"
DNS_SA_EMAIL="$DNS_SA_NAME@${GKE_PROJECT_ID}.iam.gserviceaccount.com"
# create GSA used to access the Cloud DNS zone
gcloud iam service-accounts create $DNS_SA_NAME --display-name $DNS_SA_NAME
# assign google service account to dns.admin role in cloud-dns project
gcloud projects add-iam-policy-binding $DNS_PROJECT_ID \
--member serviceAccount:$DNS_SA_EMAIL --role "roles/dns.admin"
```
#### Create Kubernetes secret using static credentials
Generate static credentials from the ExternalDNS GSA.
```bash
# download static credentials
gcloud iam service-accounts keys create /local/path/to/credentials.json \
--iam-account $DNS_SA_EMAIL
```
Create a Kubernetes secret with the credentials in the same namespace of ExternalDNS.
```bash
kubectl create secret generic "external-dns" --namespace ${EXTERNALDNS_NS:-"default"} \
--from-file /local/path/to/credentials.json
```
After this, follow the steps in [Deploy ExternalDNS](#deploy-externaldns). Make sure to set the `--google-project` flag to match Cloud DNS project name. Make sure to uncomment out the section that mounts the secret to the ExternalDNS pods.
#### Deploy External DNS
Deploy ExternalDNS with the following steps below, documented under [Deploy ExternalDNS](#deploy-externaldns). Set the `--google-project` flag to the Cloud DNS project name.
#### Update ExternalDNS pods
!!! note "Only required if not enabled on all nodes"
If you have GKE Workload Identity enabled on all nodes in your cluster, the below step is not necessary
Update the Pod spec to schedule the workloads on nodes that use Workload Identity and to use the annotated Kubernetes service account.
```bash
kubectl patch deployment "external-dns" \
--namespace ${EXTERNALDNS_NS:-"default"} \
--patch \
'{"spec": {"template": {"spec": {"nodeSelector": {"iam.gke.io/gke-metadata-server-enabled": "true"}}}}}'
```
After all of these steps you may see several messages with `googleapi: Error 403: Forbidden, forbidden`. After several minutes when the token is refreshed, these error messages will go away, and you should see info messages, such as: `All records are already up to date`.
## Deploy ExternalDNS
Then apply the following manifests file to deploy ExternalDNS.
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
labels:
app.kubernetes.io/name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
labels:
app.kubernetes.io/name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods","nodes"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
labels:
app.kubernetes.io/name: external-dns
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default # change if namespace is not 'default'
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
labels:
app.kubernetes.io/name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app.kubernetes.io/name: external-dns
template:
metadata:
labels:
app.kubernetes.io/name: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --domain-filter=example.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=google
- --log-format=json # google cloud logs parses severity of the "text" log format incorrectly
# - --google-project=my-cloud-dns-project # Use this to specify a project different from the one external-dns is running inside
- --google-zone-visibility=public # Use this to filter to only zones with this visibility. Set to either 'public' or 'private'. Omitting will match public and private zones
- --policy=upsert-only # would prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --registry=txt
- --txt-owner-id=my-identifier
# # uncomment below if static credentials are used
# env:
# - name: GOOGLE_APPLICATION_CREDENTIALS
# value: /etc/secrets/service-account/credentials.json
# volumeMounts:
# - name: google-service-account
# mountPath: /etc/secrets/service-account/
# volumes:
# - name: google-service-account
# secret:
# secretName: external-dns
```
Create the deployment for ExternalDNS:
```bash
kubectl create --namespace "default" --filename externaldns.yaml
```
## Verify ExternalDNS works
The following will deploy a small nginx server that will be used to demonstrate that ExternalDNS is working.
### Verify using an external load balancer
Create the following sample application to test that ExternalDNS works. This example will provision a L4 load balancer.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
# change nginx.example.com to match an appropriate value
external-dns.alpha.kubernetes.io/hostname: nginx.example.com
spec:
type: LoadBalancer
ports:
- port: 80
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
```
Create the deployment and service objects:
```bash
kubectl create --namespace "default" --filename nginx.yaml
```
After roughly two minutes check that a corresponding DNS record for your service was created.
```bash
gcloud dns record-sets list --zone "example-com" --name "nginx.example.com."
```
Example output:
```
NAME TYPE TTL DATA
nginx.example.com. A 300 104.155.60.49
nginx.example.com. TXT 300 "heritage=external-dns,external-dns/owner=my-identifier"
```
Note created `TXT` record alongside `A` record. `TXT` record signifies that the corresponding `A` record is managed by ExternalDNS. This makes ExternalDNS safe for running in environments where there are other records managed via other means.
Let's check that we can resolve this DNS name. We'll ask the nameservers assigned to your zone first.
```bash
dig +short @ns-cloud-e1.googledomains.com. nginx.example.com.
104.155.60.49
```
Given you hooked up your DNS zone with its parent zone you can use `curl` to access your site.
```bash
curl nginx.example.com
```
### Verify using an ingress
Let's check that Ingress works as well. Create the following Ingress.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: nginx
spec:
rules:
- host: server.example.com
http:
paths:
- path: /
pathType: Prefix
backend:
service:
name: nginx
port:
number: 80
```
Create the ingress objects with:
```bash
kubectl create --namespace "default" --filename ingress.yaml
```
Note that this will ingress object will use the default ingress controller that comes with GKE to create a L7 load balancer in addition to the L4 load balancer previously with the service object. To use only the L7 load balancer, update the service manafest to change the Service type to `NodePort` and remove the ExternalDNS annotation.
After roughly two minutes check that a corresponding DNS record for your Ingress was created.
```bash
gcloud dns record-sets list \
--zone "example-com" \
--name "server.example.com." \
```
Output:
```
NAME TYPE TTL DATA
server.example.com. A 300 130.211.46.224
server.example.com. TXT 300 "heritage=external-dns,external-dns/owner=my-identifier"
```
Let's check that we can resolve this DNS name as well.
```bash
dig +short @ns-cloud-e1.googledomains.com. server.example.com.
130.211.46.224
```
Try with `curl` as well.
```bash
curl server.example.com
```
### Clean up
Make sure to delete all Service and Ingress objects before terminating the cluster so all load balancers get cleaned up correctly.
```bash
kubectl delete service nginx
kubectl delete ingress nginx
```
Give ExternalDNS some time to clean up the DNS records for you. Then delete the managed zone and cluster.
```bash
gcloud dns managed-zones delete "example-com"
gcloud container clusters delete "external-dns"
``` | external-dns | GKE with default controller This tutorial describes how to setup ExternalDNS for usage within a GKE https cloud google com kubernetes engine Google Kuberentes Engine https cloud google com kubernetes engine cluster Make sure to use 0 11 0 version of ExternalDNS for this tutorial Single project test scenario using access scopes If you prefer to try out ExternalDNS in one of the existing environments you can skip this step The following instructions use access scopes https cloud google com compute docs access service accounts accesscopesiam to provide ExternalDNS with the permissions it needs to manage DNS records within a single project https cloud google com docs overview projects the organizing entity to allocate resources Note that since these permissions are associated with the instance all pods in the cluster will also have these permissions As such this approach is not suitable for anything but testing environments This solution will only work when both CloudDNS and GKE are provisioned in the same project If the CloudDNS zone is in a different project this solution will not work Configure Project Environment Set up your environment to work with Google Cloud Platform Fill in your variables as needed e g target project bash set variables to the appropriate desired values PROJECT ID my external dns test REGION europe west1 ZONE europe west1 d ClOUD BILLING ACCOUNT my cloud billing account set default settings for project gcloud config set project PROJECT ID gcloud config set compute region REGION gcloud config set compute zone ZONE enable billing and APIs if not done already gcloud beta billing projects link PROJECT ID billing account BILLING ACCOUNT gcloud services enable dns googleapis com gcloud services enable container googleapis com Create GKE Cluster bash gcloud container clusters create GKE CLUSTER NAME num nodes 1 scopes https www googleapis com auth ndev clouddns readwrite WARNING Note that this cluster will use the default compute engine GSA https cloud google com compute docs access service accounts default service account that contians the overly permissive project editor roles editor role So essentially anything on the cluster could potentially grant escalated privileges Also as mentioned earlier the access scope ndev clouddns readwrite will allow anything running on the cluster to have read write permissions on all Cloud DNS zones within the same project Cloud DNS Zone Create a DNS zone which will contain the managed DNS records If using your own domain that was registered with a third party domain registrar you should point your domain s name servers to the values under the nameServers key Please consult your registrar s documentation on how to do that This tutorial will use example domain of example com bash gcloud dns managed zones create example com dns name example com description Automatically managed zone by kubernetes io external dns Make a note of the nameservers that were assigned to your new zone bash gcloud dns record sets list zone example com name example com type NS Outputs NAME TYPE TTL DATA example com NS 21600 ns cloud e1 googledomains com ns cloud e2 googledomains com ns cloud e3 googledomains com ns cloud e4 googledomains com In this case it s ns cloud e1 e4 googledomains com but your s could slightly differ e g a1 a4 b1 b4 etc Cross project access scenario using Google Service Account More often following best practices in regards to security and operations Cloud DNS zones will be managed in a separate project from the Kubernetes cluster This section shows how setup ExternalDNS to access Cloud DNS from a different project These steps will also work for single project scenarios as well ExternalDNS will need permissions to make changes to the Cloud DNS zone There are three ways to configure the access needed Worker Node Service Account worker node service account method Static Credentials static credentials Workload Identity workload identity Setup Cloud DNS and GKE Below are examples on how you can configure Cloud DNS and GKE in separate projects and then use one of the three methods to grant access to ExternalDNS Replace the environment variables to values that make sense in your environment Configure Projects For this process create projects with the appropriate APIs enabled bash set variables to appropriate desired values GKE PROJECT ID my workload project DNS PROJECT ID my cloud dns project ClOUD BILLING ACCOUNT my cloud billing account enable billing and APIs for DNS project if not done already gcloud config set project DNS PROJECT ID gcloud beta billing projects link CLOUD DNS PROJECT billing account ClOUD BILLING ACCOUNT gcloud services enable dns googleapis com enable billing and APIs for GKE project if not done already gcloud config set project GKE PROJECT ID gcloud beta billing projects link CLOUD DNS PROJECT billing account ClOUD BILLING ACCOUNT gcloud services enable container googleapis com Provisioning Cloud DNS Create a Cloud DNS zone in the designated DNS project bash gcloud dns managed zones create example com project DNS PROJECT ID description example com dns name example com visibility public If using your own domain that was registered with a third party domain registrar you should point your domain s name servers to the values under the nameServers key Please consult your registrar s documentation on how to do that The example domain of example com will be used for this tutorial Provisioning a GKE cluster for cross project access Create a GSA Google Service Account and grant it the minimal set of privileges required https cloud google com kubernetes engine docs how to hardening your cluster use least privilege sa for GKE nodes bash GKE CLUSTER NAME my external dns cluster GKE REGION us central1 GKE SA NAME worker nodes sa GKE SA EMAIL GKE SA NAME GKE PROJECT ID iam gserviceaccount com ROLES roles logging logWriter roles monitoring metricWriter roles monitoring viewer roles stackdriver resourceMetadata writer gcloud iam service accounts create GKE SA NAME display name GKE SA NAME project GKE PROJECT ID assign google service account to roles in GKE project for ROLE in ROLES do gcloud projects add iam policy binding GKE PROJECT ID member serviceAccount GKE SA EMAIL role ROLE done Create a cluster using this service account and enable workload identity https cloud google com kubernetes engine docs how to workload identity bash gcloud container clusters create GKE CLUSTER NAME project GKE PROJECT ID region GKE REGION num nodes 1 service account GKE SA EMAIL workload pool GKE PROJECT ID svc id goog Workload Identity Workload Identity https cloud google com kubernetes engine docs how to workload identity allows workloads in your GKE cluster to authenticate directly to GCP https cloud google com kubernetes engine docs concepts workload identity credential flow using Kubernetes Service Accounts You have an option to chose from using the gcloud CLI or using Terraform gcloud CLI The below instructions assume you are using the default Kubernetes Service account name of external dns in the namespace external dns Grant the Kubernetes service account DNS roles dns admin at project level shell gcloud projects add iam policy binding projects DNS PROJECT ID role roles dns admin member principal iam googleapis com projects PROJECT NUMBER locations global workloadIdentityPools PROJECT ID svc id goog subject ns external dns sa external dns condition None Replace the following DNS PROJECT ID Project ID of your DNS project If DNS is in the same project as your GKE cluster use your GKE project PROJECT ID your Google Cloud project ID of your GKE Cluster PROJECT NUMBER your numerical Google Cloud project number of your GKE cluster If you wish to change the namespace replace ns external dns with ns your namespace sa external dns with sa your ksa Terraform The below instructions assume you are using the default Kubernetes Service account name of external dns in the namespace external dns Create a file called main tf and place in it the below Note If you re an experienced terraform user feel free to split these out in to different files hcl variable gke project type string description Name of the project that the GKE cluster exists in default GKE PROJECT variable ksa name type string description Name of the Kubernetes service account that will be accessing the DNS Zones default external dns variable kns name type string description Name of the Kubernetes Namespace default external dns data google project project project id var gke project locals member principal iam googleapis com projects data google project project number locations global workloadIdentityPools var gke project svc id goog subject ns var kns name sa var ksa name resource google project iam member external dns member local member project DNS PROJECT role roles dns reader resource google dns managed zone iam member member project DNS PROJECT managed zone ZONE NAME role roles dns admin member local member Replace the following GKE PROJECT Project that contains your GKE cluster DNS PROJECT Project that holds your DNS zones You can also change the below if you plan to use a different service account name and namespace variable ksa name Name of the Kubernetes service account external dns will use variable kns name Name of the Kubernetes Name Space that will have external dns installed to Worker Node Service Account method In this method the GSA Google Service Account that is associated with GKE worker nodes will be configured to have access to Cloud DNS WARNING This will grant access to modify the Cloud DNS zone records for all containers running on cluster not just ExternalDNS so use this option with caution This is not recommended for production environments bash GKE SA EMAIL GKE SA NAME GKE PROJECT ID iam gserviceaccount com assign google service account to dns admin role in the cloud dns project gcloud projects add iam policy binding DNS PROJECT ID member serviceAccount GKE SA EMAIL role roles dns admin After this follow the steps in Deploy ExternalDNS deploy externaldns Make sure to set the google project flag to match the Cloud DNS project name Static Credentials In this scenario a new GSA Google Service Account is created that has access to the CloudDNS zone The credentials for this GSA are saved and installed as a Kubernetes secret that will be used by ExternalDNS This allows only containers that have access to the secret such as ExternalDNS to update records on the Cloud DNS Zone Create GSA for use with static credentials bash DNS SA NAME external dns sa DNS SA EMAIL DNS SA NAME GKE PROJECT ID iam gserviceaccount com create GSA used to access the Cloud DNS zone gcloud iam service accounts create DNS SA NAME display name DNS SA NAME assign google service account to dns admin role in cloud dns project gcloud projects add iam policy binding DNS PROJECT ID member serviceAccount DNS SA EMAIL role roles dns admin Create Kubernetes secret using static credentials Generate static credentials from the ExternalDNS GSA bash download static credentials gcloud iam service accounts keys create local path to credentials json iam account DNS SA EMAIL Create a Kubernetes secret with the credentials in the same namespace of ExternalDNS bash kubectl create secret generic external dns namespace EXTERNALDNS NS default from file local path to credentials json After this follow the steps in Deploy ExternalDNS deploy externaldns Make sure to set the google project flag to match Cloud DNS project name Make sure to uncomment out the section that mounts the secret to the ExternalDNS pods Deploy External DNS Deploy ExternalDNS with the following steps below documented under Deploy ExternalDNS deploy externaldns Set the google project flag to the Cloud DNS project name Update ExternalDNS pods note Only required if not enabled on all nodes If you have GKE Workload Identity enabled on all nodes in your cluster the below step is not necessary Update the Pod spec to schedule the workloads on nodes that use Workload Identity and to use the annotated Kubernetes service account bash kubectl patch deployment external dns namespace EXTERNALDNS NS default patch spec template spec nodeSelector iam gke io gke metadata server enabled true After all of these steps you may see several messages with googleapi Error 403 Forbidden forbidden After several minutes when the token is refreshed these error messages will go away and you should see info messages such as All records are already up to date Deploy ExternalDNS Then apply the following manifests file to deploy ExternalDNS yaml apiVersion v1 kind ServiceAccount metadata name external dns labels app kubernetes io name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns labels app kubernetes io name external dns rules apiGroups resources services endpoints pods nodes verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer labels app kubernetes io name external dns roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default change if namespace is not default apiVersion apps v1 kind Deployment metadata name external dns labels app kubernetes io name external dns spec strategy type Recreate selector matchLabels app kubernetes io name external dns template metadata labels app kubernetes io name external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress domain filter example com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider google log format json google cloud logs parses severity of the text log format incorrectly google project my cloud dns project Use this to specify a project different from the one external dns is running inside google zone visibility public Use this to filter to only zones with this visibility Set to either public or private Omitting will match public and private zones policy upsert only would prevent ExternalDNS from deleting any records omit to enable full synchronization registry txt txt owner id my identifier uncomment below if static credentials are used env name GOOGLE APPLICATION CREDENTIALS value etc secrets service account credentials json volumeMounts name google service account mountPath etc secrets service account volumes name google service account secret secretName external dns Create the deployment for ExternalDNS bash kubectl create namespace default filename externaldns yaml Verify ExternalDNS works The following will deploy a small nginx server that will be used to demonstrate that ExternalDNS is working Verify using an external load balancer Create the following sample application to test that ExternalDNS works This example will provision a L4 load balancer yaml apiVersion v1 kind Service metadata name nginx annotations change nginx example com to match an appropriate value external dns alpha kubernetes io hostname nginx example com spec type LoadBalancer ports port 80 targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 Create the deployment and service objects bash kubectl create namespace default filename nginx yaml After roughly two minutes check that a corresponding DNS record for your service was created bash gcloud dns record sets list zone example com name nginx example com Example output NAME TYPE TTL DATA nginx example com A 300 104 155 60 49 nginx example com TXT 300 heritage external dns external dns owner my identifier Note created TXT record alongside A record TXT record signifies that the corresponding A record is managed by ExternalDNS This makes ExternalDNS safe for running in environments where there are other records managed via other means Let s check that we can resolve this DNS name We ll ask the nameservers assigned to your zone first bash dig short ns cloud e1 googledomains com nginx example com 104 155 60 49 Given you hooked up your DNS zone with its parent zone you can use curl to access your site bash curl nginx example com Verify using an ingress Let s check that Ingress works as well Create the following Ingress yaml apiVersion networking k8s io v1 kind Ingress metadata name nginx spec rules host server example com http paths path pathType Prefix backend service name nginx port number 80 Create the ingress objects with bash kubectl create namespace default filename ingress yaml Note that this will ingress object will use the default ingress controller that comes with GKE to create a L7 load balancer in addition to the L4 load balancer previously with the service object To use only the L7 load balancer update the service manafest to change the Service type to NodePort and remove the ExternalDNS annotation After roughly two minutes check that a corresponding DNS record for your Ingress was created bash gcloud dns record sets list zone example com name server example com Output NAME TYPE TTL DATA server example com A 300 130 211 46 224 server example com TXT 300 heritage external dns external dns owner my identifier Let s check that we can resolve this DNS name as well bash dig short ns cloud e1 googledomains com server example com 130 211 46 224 Try with curl as well bash curl server example com Clean up Make sure to delete all Service and Ingress objects before terminating the cluster so all load balancers get cleaned up correctly bash kubectl delete service nginx kubectl delete ingress nginx Give ExternalDNS some time to clean up the DNS records for you Then delete the managed zone and cluster bash gcloud dns managed zones delete example com gcloud container clusters delete external dns |
external-dns Designate DNS from OpenStack URL of the OpenStack identity service which is responsible for user authentication and also served as a registry for other All OpenStack CLIs require authentication parameters to be provided These parameters include Authenticating with OpenStack We are going to use OpenStack CLI utility which is an umbrella application for most of OpenStack clients including This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OpenStack Designate DNS | # Designate DNS from OpenStack
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OpenStack Designate DNS.
## Authenticating with OpenStack
We are going to use OpenStack CLI - `openstack` utility, which is an umbrella application for most of OpenStack clients including `designate`.
All OpenStack CLIs require authentication parameters to be provided. These parameters include:
* URL of the OpenStack identity service (`keystone`) which is responsible for user authentication and also served as a registry for other
OpenStack services. Designate endpoints must be registered in `keystone` in order to ExternalDNS and OpenStack CLI be able to find them.
* OpenStack region name
* User login name.
* User project (tenant) name.
* User domain (only when using keystone API v3)
Although these parameters can be passed explicitly through the CLI flags, traditionally it is done by sourcing `openrc` file (`source ~/openrc`) that is a
shell snippet that sets environment variables that all OpenStack CLI understand by convention.
Recent versions of OpenStack Dashboard have a nice UI to download `openrc` file for both v2 and v3 auth protocols. Both protocols can be used with ExternalDNS.
v3 is generally preferred over v2, but might not be available in some OpenStack installations.
## Installing OpenStack Designate
Please refer to the Designate deployment [tutorial](https://docs.openstack.org/project-install-guide/dns/ocata/install.html) for instructions on how
to install and test Designate with BIND backend. You will be required to have admin rights in existing OpenStack installation to do this. One convenient
way to get yourself an OpenStack installation to play with is to use [DevStack](https://docs.openstack.org/devstack/latest/).
## Creating DNS zones
All domain names that are ExternalDNS is going to create must belong to one of DNS zones created in advance. Here is an example of how to create `example.com` DNS zone:
```console
$ openstack zone create --email [email protected] example.com.
```
It is important to manually create all the zones that are going to be used for kubernetes entities (ExternalDNS sources) before starting ExternalDNS.
## Deploy ExternalDNS
Create a deployment file called `externaldns.yaml` with the following contents:
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=designate
env: # values from openrc file
- name: OS_AUTH_URL
value: https://controller/identity/v3
- name: OS_REGION_NAME
value: RegionOne
- name: OS_USERNAME
value: admin
- name: OS_PASSWORD
value: p@ssw0rd
- name: OS_PROJECT_NAME
value: demo
- name: OS_USER_DOMAIN_NAME
value: Default
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["watch","list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
selector:
matchLabels:
app: external-dns
strategy:
type: Recreate
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=designate
env: # values from openrc file
- name: OS_AUTH_URL
value: https://controller/identity/v3
- name: OS_REGION_NAME
value: RegionOne
- name: OS_USERNAME
value: admin
- name: OS_PASSWORD
value: p@ssw0rd
- name: OS_PROJECT_NAME
value: demo
- name: OS_USER_DOMAIN_NAME
value: Default
```
Create the deployment for ExternalDNS:
```console
$ kubectl create -f externaldns.yaml
```
### Optional: Trust self-sign certificates
If your OpenStack-Installation is configured with a self-sign certificate, you could extend the `pod.spec` with following secret-mount:
```yaml
volumeMounts:
- mountPath: /etc/ssl/certs/
name: cacerts
volumes:
- name: cacerts
secret:
defaultMode: 420
secretName: self-sign-certs
```
content of the secret `self-sign-certs` must be the certificate/chain in PEM format.
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: my-app.example.com
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Note the annotation on the service; use the same hostname as the DNS zone created above.
ExternalDNS uses this annotation to determine what services should be registered with DNS. Removing the annotation will cause ExternalDNS to remove the corresponding DNS records.
Create the deployment and service:
```console
$ kubectl create -f nginx.yaml
```
Once the service has an external IP assigned, ExternalDNS will notice the new service IP address and notify Designate,
which in turn synchronize DNS records with underlying DNS server backend.
## Verifying DNS records
To verify that DNS record was indeed created, you can use the following command:
```console
$ openstack recordset list example.com.
```
There should be a record for my-app.example.com having `ACTIVE` status. And of course, the ultimate method to verify is to issue a DNS query:
```console
$ dig my-app.example.com @controller
```
## Cleanup
Now that we have verified that ExternalDNS created all DNS records, we can delete the tutorial's example:
```console
$ kubectl delete service -f nginx.yaml
$ kubectl delete service -f externaldns.yaml
``` | external-dns | Designate DNS from OpenStack This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OpenStack Designate DNS Authenticating with OpenStack We are going to use OpenStack CLI openstack utility which is an umbrella application for most of OpenStack clients including designate All OpenStack CLIs require authentication parameters to be provided These parameters include URL of the OpenStack identity service keystone which is responsible for user authentication and also served as a registry for other OpenStack services Designate endpoints must be registered in keystone in order to ExternalDNS and OpenStack CLI be able to find them OpenStack region name User login name User project tenant name User domain only when using keystone API v3 Although these parameters can be passed explicitly through the CLI flags traditionally it is done by sourcing openrc file source openrc that is a shell snippet that sets environment variables that all OpenStack CLI understand by convention Recent versions of OpenStack Dashboard have a nice UI to download openrc file for both v2 and v3 auth protocols Both protocols can be used with ExternalDNS v3 is generally preferred over v2 but might not be available in some OpenStack installations Installing OpenStack Designate Please refer to the Designate deployment tutorial https docs openstack org project install guide dns ocata install html for instructions on how to install and test Designate with BIND backend You will be required to have admin rights in existing OpenStack installation to do this One convenient way to get yourself an OpenStack installation to play with is to use DevStack https docs openstack org devstack latest Creating DNS zones All domain names that are ExternalDNS is going to create must belong to one of DNS zones created in advance Here is an example of how to create example com DNS zone console openstack zone create email dnsmaster example com example com It is important to manually create all the zones that are going to be used for kubernetes entities ExternalDNS sources before starting ExternalDNS Deploy ExternalDNS Create a deployment file called externaldns yaml with the following contents Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider designate env values from openrc file name OS AUTH URL value https controller identity v3 name OS REGION NAME value RegionOne name OS USERNAME value admin name OS PASSWORD value p ssw0rd name OS PROJECT NAME value demo name OS USER DOMAIN NAME value Default Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups resources pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs watch list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec selector matchLabels app external dns strategy type Recreate template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider designate env values from openrc file name OS AUTH URL value https controller identity v3 name OS REGION NAME value RegionOne name OS USERNAME value admin name OS PASSWORD value p ssw0rd name OS PROJECT NAME value demo name OS USER DOMAIN NAME value Default Create the deployment for ExternalDNS console kubectl create f externaldns yaml Optional Trust self sign certificates If your OpenStack Installation is configured with a self sign certificate you could extend the pod spec with following secret mount yaml volumeMounts mountPath etc ssl certs name cacerts volumes name cacerts secret defaultMode 420 secretName self sign certs content of the secret self sign certs must be the certificate chain in PEM format Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname my app example com spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Note the annotation on the service use the same hostname as the DNS zone created above ExternalDNS uses this annotation to determine what services should be registered with DNS Removing the annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service console kubectl create f nginx yaml Once the service has an external IP assigned ExternalDNS will notice the new service IP address and notify Designate which in turn synchronize DNS records with underlying DNS server backend Verifying DNS records To verify that DNS record was indeed created you can use the following command console openstack recordset list example com There should be a record for my app example com having ACTIVE status And of course the ultimate method to verify is to issue a DNS query console dig my app example com controller Cleanup Now that we have verified that ExternalDNS created all DNS records we can delete the tutorial s example console kubectl delete service f nginx yaml kubectl delete service f externaldns yaml |
external-dns Plural This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using Plural DNS Make sure to use 0 12 3 version of ExternalDNS for this tutorial Creating Plural Credentials A secret containing the a Plural access token is needed for this provider You can get a token for your user | # Plural
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using Plural DNS.
Make sure to use **>=0.12.3** version of ExternalDNS for this tutorial.
## Creating Plural Credentials
A secret containing the a Plural access token is needed for this provider. You can get a token for your user [here](https://app.plural.sh/profile/tokens).
To create the secret you can run `kubectl create secret generic plural-env --from-literal=PLURAL_ACCESS_TOKEN=<replace-with-your-access-token>`.
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
Then apply one of the following manifests file to deploy ExternalDNS.
## Using Helm
Create a values.yaml file to configure ExternalDNS to use plural DNS as the DNS provider. This file should include the necessary environment variables:
```shell
provider:
name: plural
extraArgs:
- --plural-cluster=example-plural-cluster
- --plural-provider=aws # gcp, azure, equinix and kind are also possible
env:
- name: PLURAL_ACCESS_TOKEN
valueFrom:
secretKeyRef:
name: PLURAL_ACCESS_TOKEN
key: plural-env
- name: PLURAL_ENDPOINT
value: https://app.plural.sh
```
Finally, install the ExternalDNS chart with Helm using the configuration specified in your values.yaml file:
```shell
helm upgrade --install external-dns external-dns/external-dns --values values.yaml
```
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=plural
- --plural-cluster=example-plural-cluster
- --plural-provider=aws # gcp, azure, equinix and kind are also possible
env:
- name: PLURAL_ACCESS_TOKEN
valueFrom:
secretKeyRef:
key: PLURAL_ACCESS_TOKEN
name: plural-env
- name: PLURAL_ENDPOINT # (optional) use an alternative endpoint for Plural; defaults to https://app.plural.sh
value: https://app.plural.sh
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list", "watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=plural
- --plural-cluster=example-plural-cluster
- --plural-provider=aws # gcp, azure, equinix and kind are also possible
env:
- name: PLURAL_ACCESS_TOKEN
valueFrom:
secretKeyRef:
key: PLURAL_ACCESS_TOKEN
name: plural-env
- name: PLURAL_ENDPOINT # (optional) use an alternative endpoint for Plural; defaults to https://app.plural.sh
value: https://app.plural.sh
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: example.com
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Note the annotation on the service; use the same hostname as the Plural DNS zone created above. The annotation may also be a subdomain
of the DNS zone (e.g. 'www.example.com').
By setting the TTL annotation on the service, you have to pass a valid TTL, which must be 120 or above.
This annotation is optional, if you won't set it, it will be 1 (automatic) which is 300.
ExternalDNS uses this annotation to determine what services should be registered with DNS. Removing the annotation
will cause ExternalDNS to remove the corresponding DNS records.
Create the deployment and service:
```
$ kubectl create -f nginx.yaml
```
Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service.
Once the service has an external IP assigned, ExternalDNS will notice the new service IP address and synchronize
the Plural DNS records.
## Verifying Plural DNS records
Check your [Plural domain overview](https://app.plural.sh/account/domains) to view the domains associated with your Plural account. There you can view the records for each domain.
The records should show the external IP address of the service as the A record for your domain.
## Cleanup
Now that we have verified that ExternalDNS will automatically manage Plural DNS records, we can delete the tutorial's example:
```
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml | external-dns | Plural This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using Plural DNS Make sure to use 0 12 3 version of ExternalDNS for this tutorial Creating Plural Credentials A secret containing the a Plural access token is needed for this provider You can get a token for your user here https app plural sh profile tokens To create the secret you can run kubectl create secret generic plural env from literal PLURAL ACCESS TOKEN replace with your access token Deploy ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with Then apply one of the following manifests file to deploy ExternalDNS Using Helm Create a values yaml file to configure ExternalDNS to use plural DNS as the DNS provider This file should include the necessary environment variables shell provider name plural extraArgs plural cluster example plural cluster plural provider aws gcp azure equinix and kind are also possible env name PLURAL ACCESS TOKEN valueFrom secretKeyRef name PLURAL ACCESS TOKEN key plural env name PLURAL ENDPOINT value https app plural sh Finally install the ExternalDNS chart with Helm using the configuration specified in your values yaml file shell helm upgrade install external dns external dns external dns values values yaml Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider plural plural cluster example plural cluster plural provider aws gcp azure equinix and kind are also possible env name PLURAL ACCESS TOKEN valueFrom secretKeyRef key PLURAL ACCESS TOKEN name plural env name PLURAL ENDPOINT optional use an alternative endpoint for Plural defaults to https app plural sh value https app plural sh Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider plural plural cluster example plural cluster plural provider aws gcp azure equinix and kind are also possible env name PLURAL ACCESS TOKEN valueFrom secretKeyRef key PLURAL ACCESS TOKEN name plural env name PLURAL ENDPOINT optional use an alternative endpoint for Plural defaults to https app plural sh value https app plural sh Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname example com spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Note the annotation on the service use the same hostname as the Plural DNS zone created above The annotation may also be a subdomain of the DNS zone e g www example com By setting the TTL annotation on the service you have to pass a valid TTL which must be 120 or above This annotation is optional if you won t set it it will be 1 automatic which is 300 ExternalDNS uses this annotation to determine what services should be registered with DNS Removing the annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service kubectl create f nginx yaml Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service Once the service has an external IP assigned ExternalDNS will notice the new service IP address and synchronize the Plural DNS records Verifying Plural DNS records Check your Plural domain overview https app plural sh account domains to view the domains associated with your Plural account There you can view the records for each domain The records should show the external IP address of the service as the A record for your domain Cleanup Now that we have verified that ExternalDNS will automatically manage Plural DNS records we can delete the tutorial s example kubectl delete f nginx yaml kubectl delete f externaldns yaml |
external-dns External DNS manages service endpoints in existing DNS zones The Akamai provider does not add remove or configure new zones The or and can create and manage Edge DNS zones Akamai Edge DNS Zones External DNS v0 8 0 or greater Prerequisites | # Akamai Edge DNS
## Prerequisites
External-DNS v0.8.0 or greater.
### Zones
External-DNS manages service endpoints in existing DNS zones. The Akamai provider does not add, remove or configure new zones. The [Akamai Control Center](https://control.akamai.com) or [Akamai DevOps Tools](https://developer.akamai.com/devops), [Akamai CLI](https://developer.akamai.com/cli) and [Akamai Terraform Provider](https://developer.akamai.com/tools/integrations/terraform) can create and manage Edge DNS zones.
### Akamai Edge DNS Authentication
The Akamai Edge DNS provider requires valid Akamai Edgegrid API authentication credentials to access zones and manage DNS records.
Either directly by key or indirectly via a file can set credentials for the provider. The Akamai credential keys and mappings to the Akamai provider utilizing different presentation methods are:
| Edgegrid Auth Key | External-DNS Cmd Line Key | Environment/ConfigMap Key | Description |
| ----------------- | ------------------------- | ------------------------- | ----------- |
| host | akamai-serviceconsumerdomain | EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN | Akamai Edgegrid API server |
| access_token | akamai-access-token | EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN | Akamai Edgegrid API access token |
| client_token | akamai-client-token | EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN |Akamai Edgegrid API client token |
| client-secret | akamai-client-secret | EXTERNAL_DNS_AKAMAI_CLIENT_SECRET |Akamai Edgegrid API client secret |
In addition to specifying auth credentials individually, an Akamai Edgegrid .edgerc file convention can set credentials.
| External-DNS Cmd Line | Environment/ConfigMap | Description |
| --------------------- | --------------------- | ----------- |
| akamai-edgerc-path | EXTERNAL_DNS_AKAMAI_EDGERC_PATH | Accessible path to Edgegrid credentials file, e.g /home/test/.edgerc |
| akamai-edgerc-section | EXTERNAL_DNS_AKAMAI_EDGERC_SECTION | Section in Edgegrid credentials file containing credentials |
[Akamai API Authentication](https://developer.akamai.com/getting-started/edgegrid) provides an overview and further information about authorization credentials for API base applications and tools.
## Deploy External-DNS
An operational External-DNS deployment consists of an External-DNS container and service. The following sections demonstrate the ConfigMap objects that would make up an example functional external DNS kubernetes configuration utilizing NGINX as the service.
Connect your `kubectl` client to the External-DNS cluster.
Begin by creating a Kubernetes secret to securely store your Akamai Edge DNS Access Tokens. This key will enable ExternalDNS to authenticate with Akamai Edge DNS:
```shell
kubectl create secret generic AKAMAI-DNS --from-literal=EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN=YOUR_SERVICECONSUMERDOMAIN --from-literal=EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN=YOUR_CLIENT_TOKEN --from-literal=EXTERNAL_DNS_AKAMAI_CLIENT_SECRET=YOUR_CLIENT_SECRET --from-literal=EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN=YOUR_ACCESS_TOKEN
```
Ensure to replace YOUR_SERVICECONSUMERDOMAIN, EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN, YOUR_CLIENT_SECRET and YOUR_ACCESS_TOKEN with your actual Akamai Edge DNS API keys.
Then apply one of the following manifests file to deploy ExternalDNS.
### Using Helm
Create a values.yaml file to configure ExternalDNS to use Akamai Edge DNS as the DNS provider. This file should include the necessary environment variables:
```shell
provider:
name: akamai
env:
- name: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
- name: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
```
Finally, install the ExternalDNS chart with Helm using the configuration specified in your values.yaml file:
```shell
helm upgrade --install external-dns external-dns/external-dns --values values.yaml
```
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # or ingress or both
- --provider=akamai
- --domain-filter=example.com
# zone-id-filter may be specified as well to filter on contract ID
- --registry=txt
- --txt-owner-id=
- --txt-prefix=.
env:
- name: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
- name: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["watch", "list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # or ingress or both
- --provider=akamai
- --domain-filter=example.com
# zone-id-filter may be specified as well to filter on contract ID
- --registry=txt
- --txt-owner-id=
- --txt-prefix=.
env:
- name: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_SERVICECONSUMERDOMAIN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_TOKEN
- name: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_CLIENT_SECRET
- name: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
valueFrom:
secretKeyRef:
name: AKAMAI-DNS
key: EXTERNAL_DNS_AKAMAI_ACCESS_TOKEN
```
Create the deployment for External-DNS:
```
$ kubectl apply -f externaldns.yaml
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.example.com
external-dns.alpha.kubernetes.io/ttl: "600" #optional
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Create the deployment and service object:
```
$ kubectl apply -f nginx.yaml
```
## Verify Akamai Edge DNS Records
Wait 3-5 minutes before validating the records to allow the record changes to propagate to all the Akamai name servers.
Validate records using the [Akamai Control Center](http://control.akamai.com) or by executing a dig, nslookup or similar DNS command.
## Cleanup
Once you successfully configure and verify record management via External-DNS, you can delete the tutorial's examples:
```
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml
```
## Additional Information
* The Akamai provider allows the administrative user to filter zones by both name (`domain-filter`) and contract Id (`zone-id-filter`). The Edge DNS API will return a '500 Internal Error' for invalid contract Ids.
* The provider will substitute quotes in TXT records with a `` ` `` (back tick) when writing records with the API. | external-dns | Akamai Edge DNS Prerequisites External DNS v0 8 0 or greater Zones External DNS manages service endpoints in existing DNS zones The Akamai provider does not add remove or configure new zones The Akamai Control Center https control akamai com or Akamai DevOps Tools https developer akamai com devops Akamai CLI https developer akamai com cli and Akamai Terraform Provider https developer akamai com tools integrations terraform can create and manage Edge DNS zones Akamai Edge DNS Authentication The Akamai Edge DNS provider requires valid Akamai Edgegrid API authentication credentials to access zones and manage DNS records Either directly by key or indirectly via a file can set credentials for the provider The Akamai credential keys and mappings to the Akamai provider utilizing different presentation methods are Edgegrid Auth Key External DNS Cmd Line Key Environment ConfigMap Key Description host akamai serviceconsumerdomain EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN Akamai Edgegrid API server access token akamai access token EXTERNAL DNS AKAMAI ACCESS TOKEN Akamai Edgegrid API access token client token akamai client token EXTERNAL DNS AKAMAI CLIENT TOKEN Akamai Edgegrid API client token client secret akamai client secret EXTERNAL DNS AKAMAI CLIENT SECRET Akamai Edgegrid API client secret In addition to specifying auth credentials individually an Akamai Edgegrid edgerc file convention can set credentials External DNS Cmd Line Environment ConfigMap Description akamai edgerc path EXTERNAL DNS AKAMAI EDGERC PATH Accessible path to Edgegrid credentials file e g home test edgerc akamai edgerc section EXTERNAL DNS AKAMAI EDGERC SECTION Section in Edgegrid credentials file containing credentials Akamai API Authentication https developer akamai com getting started edgegrid provides an overview and further information about authorization credentials for API base applications and tools Deploy External DNS An operational External DNS deployment consists of an External DNS container and service The following sections demonstrate the ConfigMap objects that would make up an example functional external DNS kubernetes configuration utilizing NGINX as the service Connect your kubectl client to the External DNS cluster Begin by creating a Kubernetes secret to securely store your Akamai Edge DNS Access Tokens This key will enable ExternalDNS to authenticate with Akamai Edge DNS shell kubectl create secret generic AKAMAI DNS from literal EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN YOUR SERVICECONSUMERDOMAIN from literal EXTERNAL DNS AKAMAI CLIENT TOKEN YOUR CLIENT TOKEN from literal EXTERNAL DNS AKAMAI CLIENT SECRET YOUR CLIENT SECRET from literal EXTERNAL DNS AKAMAI ACCESS TOKEN YOUR ACCESS TOKEN Ensure to replace YOUR SERVICECONSUMERDOMAIN EXTERNAL DNS AKAMAI CLIENT TOKEN YOUR CLIENT SECRET and YOUR ACCESS TOKEN with your actual Akamai Edge DNS API keys Then apply one of the following manifests file to deploy ExternalDNS Using Helm Create a values yaml file to configure ExternalDNS to use Akamai Edge DNS as the DNS provider This file should include the necessary environment variables shell provider name akamai env name EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN name EXTERNAL DNS AKAMAI CLIENT TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT TOKEN name EXTERNAL DNS AKAMAI CLIENT SECRET valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT SECRET name EXTERNAL DNS AKAMAI ACCESS TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI ACCESS TOKEN Finally install the ExternalDNS chart with Helm using the configuration specified in your values yaml file shell helm upgrade install external dns external dns external dns values values yaml Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service or ingress or both provider akamai domain filter example com zone id filter may be specified as well to filter on contract ID registry txt txt owner id txt prefix env name EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN name EXTERNAL DNS AKAMAI CLIENT TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT TOKEN name EXTERNAL DNS AKAMAI CLIENT SECRET valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT SECRET name EXTERNAL DNS AKAMAI ACCESS TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI ACCESS TOKEN Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs watch list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service or ingress or both provider akamai domain filter example com zone id filter may be specified as well to filter on contract ID registry txt txt owner id txt prefix env name EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI SERVICECONSUMERDOMAIN name EXTERNAL DNS AKAMAI CLIENT TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT TOKEN name EXTERNAL DNS AKAMAI CLIENT SECRET valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI CLIENT SECRET name EXTERNAL DNS AKAMAI ACCESS TOKEN valueFrom secretKeyRef name AKAMAI DNS key EXTERNAL DNS AKAMAI ACCESS TOKEN Create the deployment for External DNS kubectl apply f externaldns yaml Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx example com external dns alpha kubernetes io ttl 600 optional spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Create the deployment and service object kubectl apply f nginx yaml Verify Akamai Edge DNS Records Wait 3 5 minutes before validating the records to allow the record changes to propagate to all the Akamai name servers Validate records using the Akamai Control Center http control akamai com or by executing a dig nslookup or similar DNS command Cleanup Once you successfully configure and verify record management via External DNS you can delete the tutorial s examples kubectl delete f nginx yaml kubectl delete f externaldns yaml Additional Information The Akamai provider allows the administrative user to filter zones by both name domain filter and contract Id zone id filter The Edge DNS API will return a 500 Internal Error for invalid contract Ids The provider will substitute quotes in TXT records with a back tick when writing records with the API |
external-dns If you are new to GoDaddy we recommend you first read the following This tutorial describes how to set up ExternalDNS for use within a Kubernetes cluster using GoDaddy DNS GoDaddy Creating a zone with GoDaddy DNS Make sure to use 0 6 version of ExternalDNS for this tutorial | # GoDaddy
This tutorial describes how to set up ExternalDNS for use within a
Kubernetes cluster using GoDaddy DNS.
Make sure to use **>=0.6** version of ExternalDNS for this tutorial.
## Creating a zone with GoDaddy DNS
If you are new to GoDaddy, we recommend you first read the following
instructions for creating a zone.
[Creating a zone using the GoDaddy web console](https://www.godaddy.com/)
[Creating a zone using the GoDaddy API](https://developer.godaddy.com/)
## Creating GoDaddy API key
You first need to create an API Key.
Using the [GoDaddy documentation](https://developer.godaddy.com/getstarted) you will have your `API key` and `API secret`
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster with which you want to test ExternalDNS, and then apply one of the following manifest files for deployment:
## Using Helm
Create a values.yaml file to configure ExternalDNS to use GoDaddy as the DNS provider. This file should include the necessary environment variables:
```shell
provider:
name: godaddy
extraArgs:
- --godaddy-api-key=YOUR_API_KEY
- --godaddy-api-secret=YOUR_API_SECRET
```
Be sure to replace YOUR_API_KEY and YOUR_API_SECRET with your actual GoDaddy API key and GoDaddy API secret.
Finally, install the ExternalDNS chart with Helm using the configuration specified in your values.yaml file:
```shell
helm upgrade --install external-dns external-dns/external-dns --values values.yaml
```
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=godaddy
- --txt-prefix=external-dns. # In case of multiple k8s cluster
- --txt-owner-id=owner-id # In case of multiple k8s cluster
- --godaddy-api-key=<Your API Key>
- --godaddy-api-secret=<Your API secret>
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list","watch"]
- apiGroups: [""]
resources: ["endpoints"]
verbs: ["get","watch","list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=godaddy
- --txt-prefix=external-dns. # In case of multiple k8s cluster
- --txt-owner-id=owner-id # In case of multiple k8s cluster
- --godaddy-api-key=<Your API Key>
- --godaddy-api-secret=<Your API secret>
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: example.com
external-dns.alpha.kubernetes.io/ttl: "120" #optional
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
**A note about annotations**
Verify that the annotation on the service uses the same hostname as the GoDaddy DNS zone created above. The annotation may also be a subdomain of the DNS zone (e.g. 'www.example.com').
The TTL annotation can be used to configure the TTL on DNS records managed by ExternalDNS and is optional. If this annotation is not set, the TTL on records managed by ExternalDNS will default to 10.
ExternalDNS uses the hostname annotation to determine which services should be registered with DNS. Removing the hostname annotation will cause ExternalDNS to remove the corresponding DNS records.
### Create the deployment and service
```
$ kubectl create -f nginx.yaml
```
Depending on where you run your service, it may take some time for your cloud provider to create an external IP for the service. Once an external IP is assigned, ExternalDNS detects the new service IP address and synchronizes the GoDaddy DNS records.
## Verifying GoDaddy DNS records
Use the GoDaddy web console or API to verify that the A record for your domain shows the external IP address of the services.
## Cleanup
Once you successfully configure and verify record management via ExternalDNS, you can delete the tutorial's example:
```
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml
``` | external-dns | GoDaddy This tutorial describes how to set up ExternalDNS for use within a Kubernetes cluster using GoDaddy DNS Make sure to use 0 6 version of ExternalDNS for this tutorial Creating a zone with GoDaddy DNS If you are new to GoDaddy we recommend you first read the following instructions for creating a zone Creating a zone using the GoDaddy web console https www godaddy com Creating a zone using the GoDaddy API https developer godaddy com Creating GoDaddy API key You first need to create an API Key Using the GoDaddy documentation https developer godaddy com getstarted you will have your API key and API secret Deploy ExternalDNS Connect your kubectl client to the cluster with which you want to test ExternalDNS and then apply one of the following manifest files for deployment Using Helm Create a values yaml file to configure ExternalDNS to use GoDaddy as the DNS provider This file should include the necessary environment variables shell provider name godaddy extraArgs godaddy api key YOUR API KEY godaddy api secret YOUR API SECRET Be sure to replace YOUR API KEY and YOUR API SECRET with your actual GoDaddy API key and GoDaddy API secret Finally install the ExternalDNS chart with Helm using the configuration specified in your values yaml file shell helm upgrade install external dns external dns external dns values values yaml Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider godaddy txt prefix external dns In case of multiple k8s cluster txt owner id owner id In case of multiple k8s cluster godaddy api key Your API Key godaddy api secret Your API secret Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services verbs get watch list apiGroups resources pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiGroups resources endpoints verbs get watch list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider godaddy txt prefix external dns In case of multiple k8s cluster txt owner id owner id In case of multiple k8s cluster godaddy api key Your API Key godaddy api secret Your API secret Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname example com external dns alpha kubernetes io ttl 120 optional spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 A note about annotations Verify that the annotation on the service uses the same hostname as the GoDaddy DNS zone created above The annotation may also be a subdomain of the DNS zone e g www example com The TTL annotation can be used to configure the TTL on DNS records managed by ExternalDNS and is optional If this annotation is not set the TTL on records managed by ExternalDNS will default to 10 ExternalDNS uses the hostname annotation to determine which services should be registered with DNS Removing the hostname annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service kubectl create f nginx yaml Depending on where you run your service it may take some time for your cloud provider to create an external IP for the service Once an external IP is assigned ExternalDNS detects the new service IP address and synchronizes the GoDaddy DNS records Verifying GoDaddy DNS records Use the GoDaddy web console or API to verify that the A record for your domain shows the external IP address of the services Cleanup Once you successfully configure and verify record management via ExternalDNS you can delete the tutorial s example kubectl delete f nginx yaml kubectl delete f externaldns yaml |
external-dns Tencent Cloud Tencent Cloud DNSPod Service is the domain name resolution and management service for public access Set up PrivateDns or DNSPod Tencent Cloud PrivateDNS Service is the domain name resolution and management service for VPC internal access Make sure to use 0 13 1 version of ExternalDNS for this tutorial External Dns Version | # Tencent Cloud
## External Dns Version
* Make sure to use **>=0.13.1** version of ExternalDNS for this tutorial
## Set up PrivateDns or DNSPod
Tencent Cloud DNSPod Service is the domain name resolution and management service for public access.
Tencent Cloud PrivateDNS Service is the domain name resolution and management service for VPC internal access.
* If you want to use internal dns service in Tencent Cloud.
1. Set up the args `--tencent-cloud-zone-type=private`
2. Create a DNS domain in PrivateDNS console. DNS domain which will contain the managed DNS records.
* If you want to use public dns service in Tencent Cloud.
1. Set up the args `--tencent-cloud-zone-type=public`
2. Create a Domain in DnsPod console. DNS domain which will contain the managed DNS records.
## Set up CAM for API Key
In Tencent CAM Console. you may get the secretId and secretKey pair. make sure the key pair has those Policy.
```json
{
"version": "2.0",
"statement": [
{
"effect": "allow",
"action": [
"dnspod:ModifyRecord",
"dnspod:DeleteRecord",
"dnspod:CreateRecord",
"dnspod:DescribeRecordList",
"dnspod:DescribeDomainList"
],
"resource": [
"*"
]
},
{
"effect": "allow",
"action": [
"privatedns:DescribePrivateZoneList",
"privatedns:DescribePrivateZoneRecordList",
"privatedns:CreatePrivateZoneRecord",
"privatedns:DeletePrivateZoneRecord",
"privatedns:ModifyPrivateZoneRecord"
],
"resource": [
"*"
]
}
]
}
```
# Deploy ExternalDNS
## Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: v1
kind: ConfigMap
metadata:
name: external-dns
data:
tencent-cloud.json: |
{
"regionId": "ap-shanghai",
"secretId": "******",
"secretKey": "******",
"vpcId": "vpc-******",
"internetEndpoint": false # Default: false. Access the Tencent API through the intranet. If you need to deploy on the public network, you need to change to true
}
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- args:
- --source=service
- --source=ingress
- --domain-filter=external-dns-test.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=tencentcloud
- --policy=sync # set `upsert-only` would prevent ExternalDNS from deleting any records
- --tencent-cloud-zone-type=private # only look at private hosted zones. set `public` to use the public dns service.
- --tencent-cloud-config-file=/etc/kubernetes/tencent-cloud.json
image: registry.k8s.io/external-dns/external-dns:v0.15.0
imagePullPolicy: Always
name: external-dns
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- mountPath: /etc/kubernetes
name: config-volume
readOnly: true
dnsPolicy: ClusterFirst
hostAliases:
- hostnames:
- privatedns.internal.tencentcloudapi.com
- dnspod.internal.tencentcloudapi.com
ip: 169.254.0.95
restartPolicy: Always
schedulerName: default-scheduler
securityContext: {}
serviceAccount: external-dns
serviceAccountName: external-dns
terminationGracePeriodSeconds: 30
volumes:
- configMap:
defaultMode: 420
items:
- key: tencent-cloud.json
path: tencent-cloud.json
name: external-dns
name: config-volume
```
# Example
## Service
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.com
external-dns.alpha.kubernetes.io/internal-hostname: nginx-internal.external-dns-test.com
external-dns.alpha.kubernetes.io/ttl: "600"
spec:
type: LoadBalancer
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
name: http
```
`nginx.external-dns-test.com` will record to the Loadbalancer VIP.
`nginx-internal.external-dns-test.com` will record to the ClusterIP.
all of the DNS Record ttl will be 600.
# Attention
This makes ExternalDNS safe for running in environments where there are other records managed via other means.
| external-dns | Tencent Cloud External Dns Version Make sure to use 0 13 1 version of ExternalDNS for this tutorial Set up PrivateDns or DNSPod Tencent Cloud DNSPod Service is the domain name resolution and management service for public access Tencent Cloud PrivateDNS Service is the domain name resolution and management service for VPC internal access If you want to use internal dns service in Tencent Cloud 1 Set up the args tencent cloud zone type private 2 Create a DNS domain in PrivateDNS console DNS domain which will contain the managed DNS records If you want to use public dns service in Tencent Cloud 1 Set up the args tencent cloud zone type public 2 Create a Domain in DnsPod console DNS domain which will contain the managed DNS records Set up CAM for API Key In Tencent CAM Console you may get the secretId and secretKey pair make sure the key pair has those Policy json version 2 0 statement effect allow action dnspod ModifyRecord dnspod DeleteRecord dnspod CreateRecord dnspod DescribeRecordList dnspod DescribeDomainList resource effect allow action privatedns DescribePrivateZoneList privatedns DescribePrivateZoneRecordList privatedns CreatePrivateZoneRecord privatedns DeletePrivateZoneRecord privatedns ModifyPrivateZoneRecord resource Deploy ExternalDNS Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion v1 kind ConfigMap metadata name external dns data tencent cloud json regionId ap shanghai secretId secretKey vpcId vpc internetEndpoint false Default false Access the Tencent API through the intranet If you need to deploy on the public network you need to change to true apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers args source service source ingress domain filter external dns test com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider tencentcloud policy sync set upsert only would prevent ExternalDNS from deleting any records tencent cloud zone type private only look at private hosted zones set public to use the public dns service tencent cloud config file etc kubernetes tencent cloud json image registry k8s io external dns external dns v0 15 0 imagePullPolicy Always name external dns resources terminationMessagePath dev termination log terminationMessagePolicy File volumeMounts mountPath etc kubernetes name config volume readOnly true dnsPolicy ClusterFirst hostAliases hostnames privatedns internal tencentcloudapi com dnspod internal tencentcloudapi com ip 169 254 0 95 restartPolicy Always schedulerName default scheduler securityContext serviceAccount external dns serviceAccountName external dns terminationGracePeriodSeconds 30 volumes configMap defaultMode 420 items key tencent cloud json path tencent cloud json name external dns name config volume Example Service yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test com external dns alpha kubernetes io internal hostname nginx internal external dns test com external dns alpha kubernetes io ttl 600 spec type LoadBalancer ports port 80 name http targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 name http nginx external dns test com will record to the Loadbalancer VIP nginx internal external dns test com will record to the ClusterIP all of the DNS Record ttl will be 600 Attention This makes ExternalDNS safe for running in environments where there are other records managed via other means |
external-dns A DNSimple API access token can be acquired by following the Create a DNSimple API Access Token This tutorial describes how to setup ExternalDNS for usage with DNSimple Make sure to use 0 4 6 version of ExternalDNS for this tutorial DNSimple | # DNSimple
This tutorial describes how to setup ExternalDNS for usage with DNSimple.
Make sure to use **>=0.4.6** version of ExternalDNS for this tutorial.
## Create a DNSimple API Access Token
A DNSimple API access token can be acquired by following the [provided documentation from DNSimple](https://support.dnsimple.com/articles/api-access-token/)
The environment variable `DNSIMPLE_OAUTH` must be set to the generated API token to run ExternalDNS with DNSimple.
When the generated DNSimple API access token is a _User token_, as opposed to an _Account token_, the following environment variables must also be set:
- `DNSIMPLE_ACCOUNT_ID`: Set this to the account ID which the domains to be managed by ExternalDNS belong to (eg. `1001234`).
- `DNSIMPLE_ZONES`: Set this to a comma separated list of DNS zones to be managed by ExternalDNS (eg. `mydomain.com,example.com`).
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
Then apply one of the following manifests file to deploy ExternalDNS.
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone you create in DNSimple.
- --provider=dnsimple
- --registry=txt
env:
- name: DNSIMPLE_OAUTH
value: "YOUR_DNSIMPLE_API_KEY"
- name: DNSIMPLE_ACCOUNT_ID
value: "SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN"
- name: DNSIMPLE_ZONES
value: "SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN"
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone you create in DNSimple.
- --provider=dnsimple
- --registry=txt
env:
- name: DNSIMPLE_OAUTH
value: "YOUR_DNSIMPLE_API_KEY"
- name: DNSIMPLE_ACCOUNT_ID
value: "SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN"
- name: DNSIMPLE_ZONES
value: "SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN"
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: validate-external-dns.example.com
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Note the annotation on the service; use the same hostname as the DNSimple DNS zone created above. The annotation may also be a subdomain
of the DNS zone (e.g. 'www.example.com').
ExternalDNS uses this annotation to determine what services should be registered with DNS. Removing the annotation will cause ExternalDNS to remove the corresponding DNS records.
Create the deployment and service:
```sh
$ kubectl create -f nginx.yaml
```
Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service. Check the status by running
`kubectl get services nginx`. If the `EXTERNAL-IP` field shows an address, the service is ready to be accessed externally.
Once the service has an external IP assigned, ExternalDNS will notice the new service IP address and synchronize
the DNSimple DNS records.
## Verifying DNSimple DNS records
### Getting your DNSimple Account ID
If you do not know your DNSimple account ID it can be acquired using the [whoami](https://developer.dnsimple.com/v2/identity/#whoami) endpoint from the DNSimple Identity API
```sh
curl -H "Authorization: Bearer $DNSIMPLE_ACCOUNT_TOKEN" \
-H 'Accept: application/json' \
https://api.dnsimple.com/v2/whoami
{
"data": {
"user": null,
"account": {
"id": 1,
"email": "[email protected]",
"plan_identifier": "dnsimple-professional",
"created_at": "2015-09-18T23:04:37Z",
"updated_at": "2016-06-09T20:03:39Z"
}
}
}
```
### Looking at the DNSimple Dashboard
You can view your DNSimple Record Editor at https://dnsimple.com/a/YOUR_ACCOUNT_ID/domains/example.com/records. Ensure you substitute the value `YOUR_ACCOUNT_ID` with the ID of your DNSimple account and `example.com` with the correct domain that you used during validation.
### Using the DNSimple Zone Records API
This approach allows for you to use the DNSimple [List records for a zone](https://developer.dnsimple.com/v2/zones/records/#listZoneRecords) endpoint to verify the creation of the A and TXT record. Ensure you substitute the value `YOUR_ACCOUNT_ID` with the ID of your DNSimple account and `example.com` with the correct domain that you used during validation.
```sh
curl -H "Authorization: Bearer $DNSIMPLE_ACCOUNT_TOKEN" \
-H 'Accept: application/json' \
'https://api.dnsimple.com/v2/YOUR_ACCOUNT_ID/zones/example.com/records&name=validate-external-dns'
```
## Clean up
Now that we have verified that ExternalDNS will automatically manage DNSimple DNS records, we can delete the tutorial's example:
```sh
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml
```
### Deleting Created Records
The created records can be deleted using the record IDs from the verification step and the [Delete a zone record](https://developer.dnsimple.com/v2/zones/records/#deleteZoneRecord) endpoint. | external-dns | DNSimple This tutorial describes how to setup ExternalDNS for usage with DNSimple Make sure to use 0 4 6 version of ExternalDNS for this tutorial Create a DNSimple API Access Token A DNSimple API access token can be acquired by following the provided documentation from DNSimple https support dnsimple com articles api access token The environment variable DNSIMPLE OAUTH must be set to the generated API token to run ExternalDNS with DNSimple When the generated DNSimple API access token is a User token as opposed to an Account token the following environment variables must also be set DNSIMPLE ACCOUNT ID Set this to the account ID which the domains to be managed by ExternalDNS belong to eg 1001234 DNSIMPLE ZONES Set this to a comma separated list of DNS zones to be managed by ExternalDNS eg mydomain com example com Deploy ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with Then apply one of the following manifests file to deploy ExternalDNS Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service domain filter example com optional limit to only example com domains change to match the zone you create in DNSimple provider dnsimple registry txt env name DNSIMPLE OAUTH value YOUR DNSIMPLE API KEY name DNSIMPLE ACCOUNT ID value SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN name DNSIMPLE ZONES value SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service domain filter example com optional limit to only example com domains change to match the zone you create in DNSimple provider dnsimple registry txt env name DNSIMPLE OAUTH value YOUR DNSIMPLE API KEY name DNSIMPLE ACCOUNT ID value SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN name DNSIMPLE ZONES value SET THIS IF USING A DNSIMPLE USER ACCESS TOKEN Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname validate external dns example com spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Note the annotation on the service use the same hostname as the DNSimple DNS zone created above The annotation may also be a subdomain of the DNS zone e g www example com ExternalDNS uses this annotation to determine what services should be registered with DNS Removing the annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service sh kubectl create f nginx yaml Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service Check the status by running kubectl get services nginx If the EXTERNAL IP field shows an address the service is ready to be accessed externally Once the service has an external IP assigned ExternalDNS will notice the new service IP address and synchronize the DNSimple DNS records Verifying DNSimple DNS records Getting your DNSimple Account ID If you do not know your DNSimple account ID it can be acquired using the whoami https developer dnsimple com v2 identity whoami endpoint from the DNSimple Identity API sh curl H Authorization Bearer DNSIMPLE ACCOUNT TOKEN H Accept application json https api dnsimple com v2 whoami data user null account id 1 email example account example com plan identifier dnsimple professional created at 2015 09 18T23 04 37Z updated at 2016 06 09T20 03 39Z Looking at the DNSimple Dashboard You can view your DNSimple Record Editor at https dnsimple com a YOUR ACCOUNT ID domains example com records Ensure you substitute the value YOUR ACCOUNT ID with the ID of your DNSimple account and example com with the correct domain that you used during validation Using the DNSimple Zone Records API This approach allows for you to use the DNSimple List records for a zone https developer dnsimple com v2 zones records listZoneRecords endpoint to verify the creation of the A and TXT record Ensure you substitute the value YOUR ACCOUNT ID with the ID of your DNSimple account and example com with the correct domain that you used during validation sh curl H Authorization Bearer DNSIMPLE ACCOUNT TOKEN H Accept application json https api dnsimple com v2 YOUR ACCOUNT ID zones example com records name validate external dns Clean up Now that we have verified that ExternalDNS will automatically manage DNSimple DNS records we can delete the tutorial s example sh kubectl delete f nginx yaml kubectl delete f externaldns yaml Deleting Created Records The created records can be deleted using the record IDs from the verification step and the Delete a zone record https developer dnsimple com v2 zones records deleteZoneRecord endpoint |
external-dns Alibaba Cloud json RAM Permissions This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster on Alibaba Cloud Make sure to use 0 5 6 version of ExternalDNS for this tutorial Statement Version 1 | # Alibaba Cloud
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster on Alibaba Cloud. Make sure to use **>=0.5.6** version of ExternalDNS for this tutorial
## RAM Permissions
```json
{
"Version": "1",
"Statement": [
{
"Action": "alidns:AddDomainRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "alidns:DeleteDomainRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "alidns:UpdateDomainRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "alidns:DescribeDomainRecords",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "alidns:DescribeDomains",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:AddZoneRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:DeleteZoneRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:UpdateZoneRecord",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:DescribeZoneRecords",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:DescribeZones",
"Resource": "*",
"Effect": "Allow"
},
{
"Action": "pvtz:DescribeZoneInfo",
"Resource": "*",
"Effect": "Allow"
}
]
}
```
When running on Alibaba Cloud, you need to make sure that your nodes (on which External DNS runs) have the RAM instance profile with the above RAM role assigned.
## Set up a Alibaba Cloud DNS service or Private Zone service
Alibaba Cloud DNS Service is the domain name resolution and management service for public access. It routes access from end-users to the designated web app.
Alibaba Cloud Private Zone is the domain name resolution and management service for VPC internal access.
*If you prefer to try-out ExternalDNS in one of the existing domain or zone you can skip this step*
Create a DNS domain which will contain the managed DNS records. For public DNS service, the domain name should be valid and owned by yourself.
```console
$ aliyun alidns AddDomain --DomainName "external-dns-test.com"
```
Make a note of the ID of the hosted zone you just created.
```console
$ aliyun alidns DescribeDomains --KeyWord="external-dns-test.com" | jq -r '.Domains.Domain[0].DomainId'
```
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
Then apply one of the following manifests file to deploy ExternalDNS.
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --domain-filter=external-dns-test.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=alibabacloud
- --policy=upsert-only # would prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --alibaba-cloud-zone-type=public # only look at public hosted zones (valid values are public, private or no value for both)
- --registry=txt
- --txt-owner-id=my-identifier
volumeMounts:
- mountPath: /usr/share/zoneinfo
name: hostpath
volumes:
- name: hostpath
hostPath:
path: /usr/share/zoneinfo
type: Directory
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --domain-filter=external-dns-test.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=alibabacloud
- --policy=upsert-only # would prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --alibaba-cloud-zone-type=public # only look at public hosted zones (valid values are public, private or no value for both)
- --registry=txt
- --txt-owner-id=my-identifier
- --alibaba-cloud-config-file= # enable sts token
volumeMounts:
- mountPath: /usr/share/zoneinfo
name: hostpath
volumes:
- name: hostpath
hostPath:
path: /usr/share/zoneinfo
type: Directory
```
## Arguments
This list is not the full list, but a few arguments that where chosen.
### alibaba-cloud-zone-type
`alibaba-cloud-zone-type` allows filtering for private and public zones
* If value is `public`, it will sync with records in Alibaba Cloud DNS Service
* If value is `private`, it will sync with records in Alibaba Cloud Private Zone Service
## Verify ExternalDNS works (Ingress example)
Create an ingress resource manifest file.
> For ingress objects ExternalDNS will create a DNS record based on the host specified for the ingress object.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: foo
spec:
ingressClassName: nginx # use the one that corresponds to your ingress controller.
rules:
- host: foo.external-dns-test.com
http:
paths:
- backend:
service:
name: foo
port:
number: 80
pathType: Prefix
```
## Verify ExternalDNS works (Service example)
Create the following sample application to test that ExternalDNS works.
> For services ExternalDNS will look for the annotation `external-dns.alpha.kubernetes.io/hostname` on the service and use the corresponding value.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.com.
spec:
type: LoadBalancer
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
name: http
```
After roughly two minutes check that a corresponding DNS record for your service was created.
```console
$ aliyun alidns DescribeDomainRecords --DomainName=external-dns-test.com
{
"PageNumber": 1,
"TotalCount": 1,
"PageSize": 20,
"RequestId": "1DBEF426-F771-46C7-9802-4989E9C94EE8",
"DomainRecords": {
"Record": [
{
"RR": "nginx",
"Status": "ENABLE",
"Value": "1.2.3.4",
"Weight": 1,
"RecordId": "3994015629411328",
"Type": "A",
"DomainName": "external-dns-test.com",
"Locked": false,
"Line": "default",
"TTL": 600
},
{
"RR": "nginx",
"Status": "ENABLE",
"Value": "heritage=external-dns;external-dns/owner=my-identifier",
"Weight": 1,
"RecordId": "3994015629411329",
"Type": "TTL",
"DomainName": "external-dns-test.com",
"Locked": false,
"Line": "default",
"TTL": 600
}
]
}
}
```
Note created TXT record alongside ALIAS record. TXT record signifies that the corresponding ALIAS record is managed by ExternalDNS. This makes ExternalDNS safe for running in environments where there are other records managed via other means.
Let's check that we can resolve this DNS name. We'll ask the nameservers assigned to your zone first.
```console
$ dig nginx.external-dns-test.com.
```
If you hooked up your DNS zone with its parent zone correctly you can use `curl` to access your site.
```console
$ curl nginx.external-dns-test.com.
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
...
</head>
<body>
...
</body>
</html>
```
## Custom TTL
The default DNS record TTL (Time-To-Live) is 300 seconds. You can customize this value by setting the annotation `external-dns.alpha.kubernetes.io/ttl`.
e.g., modify the service manifest YAML file above:
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.com
external-dns.alpha.kubernetes.io/ttl: 60
spec:
...
```
This will set the DNS record's TTL to 60 seconds.
## Clean up
Make sure to delete all Service objects before terminating the cluster so all load balancers get cleaned up correctly.
```console
$ kubectl delete service nginx
```
Give ExternalDNS some time to clean up the DNS records for you. Then delete the hosted zone if you created one for the testing purpose.
```console
$ aliyun alidns DeleteDomain --DomainName external-dns-test.com
```
For more info about Alibaba Cloud external dns, please refer this [docs](https://yq.aliyun.com/articles/633412) | external-dns | Alibaba Cloud This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster on Alibaba Cloud Make sure to use 0 5 6 version of ExternalDNS for this tutorial RAM Permissions json Version 1 Statement Action alidns AddDomainRecord Resource Effect Allow Action alidns DeleteDomainRecord Resource Effect Allow Action alidns UpdateDomainRecord Resource Effect Allow Action alidns DescribeDomainRecords Resource Effect Allow Action alidns DescribeDomains Resource Effect Allow Action pvtz AddZoneRecord Resource Effect Allow Action pvtz DeleteZoneRecord Resource Effect Allow Action pvtz UpdateZoneRecord Resource Effect Allow Action pvtz DescribeZoneRecords Resource Effect Allow Action pvtz DescribeZones Resource Effect Allow Action pvtz DescribeZoneInfo Resource Effect Allow When running on Alibaba Cloud you need to make sure that your nodes on which External DNS runs have the RAM instance profile with the above RAM role assigned Set up a Alibaba Cloud DNS service or Private Zone service Alibaba Cloud DNS Service is the domain name resolution and management service for public access It routes access from end users to the designated web app Alibaba Cloud Private Zone is the domain name resolution and management service for VPC internal access If you prefer to try out ExternalDNS in one of the existing domain or zone you can skip this step Create a DNS domain which will contain the managed DNS records For public DNS service the domain name should be valid and owned by yourself console aliyun alidns AddDomain DomainName external dns test com Make a note of the ID of the hosted zone you just created console aliyun alidns DescribeDomains KeyWord external dns test com jq r Domains Domain 0 DomainId Deploy ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with Then apply one of the following manifests file to deploy ExternalDNS Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress domain filter external dns test com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider alibabacloud policy upsert only would prevent ExternalDNS from deleting any records omit to enable full synchronization alibaba cloud zone type public only look at public hosted zones valid values are public private or no value for both registry txt txt owner id my identifier volumeMounts mountPath usr share zoneinfo name hostpath volumes name hostpath hostPath path usr share zoneinfo type Directory Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress domain filter external dns test com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider alibabacloud policy upsert only would prevent ExternalDNS from deleting any records omit to enable full synchronization alibaba cloud zone type public only look at public hosted zones valid values are public private or no value for both registry txt txt owner id my identifier alibaba cloud config file enable sts token volumeMounts mountPath usr share zoneinfo name hostpath volumes name hostpath hostPath path usr share zoneinfo type Directory Arguments This list is not the full list but a few arguments that where chosen alibaba cloud zone type alibaba cloud zone type allows filtering for private and public zones If value is public it will sync with records in Alibaba Cloud DNS Service If value is private it will sync with records in Alibaba Cloud Private Zone Service Verify ExternalDNS works Ingress example Create an ingress resource manifest file For ingress objects ExternalDNS will create a DNS record based on the host specified for the ingress object yaml apiVersion networking k8s io v1 kind Ingress metadata name foo spec ingressClassName nginx use the one that corresponds to your ingress controller rules host foo external dns test com http paths backend service name foo port number 80 pathType Prefix Verify ExternalDNS works Service example Create the following sample application to test that ExternalDNS works For services ExternalDNS will look for the annotation external dns alpha kubernetes io hostname on the service and use the corresponding value yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test com spec type LoadBalancer ports port 80 name http targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 name http After roughly two minutes check that a corresponding DNS record for your service was created console aliyun alidns DescribeDomainRecords DomainName external dns test com PageNumber 1 TotalCount 1 PageSize 20 RequestId 1DBEF426 F771 46C7 9802 4989E9C94EE8 DomainRecords Record RR nginx Status ENABLE Value 1 2 3 4 Weight 1 RecordId 3994015629411328 Type A DomainName external dns test com Locked false Line default TTL 600 RR nginx Status ENABLE Value heritage external dns external dns owner my identifier Weight 1 RecordId 3994015629411329 Type TTL DomainName external dns test com Locked false Line default TTL 600 Note created TXT record alongside ALIAS record TXT record signifies that the corresponding ALIAS record is managed by ExternalDNS This makes ExternalDNS safe for running in environments where there are other records managed via other means Let s check that we can resolve this DNS name We ll ask the nameservers assigned to your zone first console dig nginx external dns test com If you hooked up your DNS zone with its parent zone correctly you can use curl to access your site console curl nginx external dns test com DOCTYPE html html head title Welcome to nginx title head body body html Custom TTL The default DNS record TTL Time To Live is 300 seconds You can customize this value by setting the annotation external dns alpha kubernetes io ttl e g modify the service manifest YAML file above yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test com external dns alpha kubernetes io ttl 60 spec This will set the DNS record s TTL to 60 seconds Clean up Make sure to delete all Service objects before terminating the cluster so all load balancers get cleaned up correctly console kubectl delete service nginx Give ExternalDNS some time to clean up the DNS records for you Then delete the hosted zone if you created one for the testing purpose console aliyun alidns DeleteDomain DomainName external dns test com For more info about Alibaba Cloud external dns please refer this docs https yq aliyun com articles 633412 |
external-dns Using the resource with External DNS requires Contour version 1 5 or greater Without RBAC This tutorial describes how to configure External DNS to use the Contour source yaml apiVersion apps v1 Example manifests for External DNS Contour HTTPProxy | # Contour HTTPProxy
This tutorial describes how to configure External DNS to use the Contour `HTTPProxy` source.
Using the `HTTPProxy` resource with External DNS requires Contour version 1.5 or greater.
### Example manifests for External DNS
#### Without RBAC
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --source=contour-httpproxy
- --domain-filter=external-dns-test.my-org.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=aws
- --policy=upsert-only # would prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --aws-zone-type=public # only look at public hosted zones (valid values are public, private or no value for both)
- --registry=txt
- --txt-owner-id=my-identifier
```
#### With RBAC
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
- apiGroups: ["projectcontour.io"]
resources: ["httpproxies"]
verbs: ["get","watch","list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --source=contour-httpproxy
- --domain-filter=external-dns-test.my-org.com # will make ExternalDNS see only the hosted zones matching provided domain, omit to process all available hosted zones
- --provider=aws
- --policy=upsert-only # would prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --aws-zone-type=public # only look at public hosted zones (valid values are public, private or no value for both)
- --registry=txt
- --txt-owner-id=my-identifier
```
### Verify External DNS works
The following instructions are based on the
[Contour example workload](https://github.com/projectcontour/contour/tree/master/examples/example-workload/httpproxy).
#### Install a sample service
```bash
$ kubectl apply -f - <<EOF
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: kuard
name: kuard
spec:
replicas: 3
selector:
matchLabels:
app: kuard
template:
metadata:
labels:
app: kuard
spec:
containers:
- image: gcr.io/kuar-demo/kuard-amd64:1
name: kuard
---
apiVersion: v1
kind: Service
metadata:
labels:
app: kuard
name: kuard
spec:
ports:
- port: 80
protocol: TCP
targetPort: 8080
selector:
app: kuard
sessionAffinity: None
type: ClusterIP
EOF
```
Then create an `HTTPProxy`:
```
$ kubectl apply -f - <<EOF
apiVersion: projectcontour.io/v1
kind: HTTPProxy
metadata:
labels:
app: kuard
name: kuard
namespace: default
spec:
virtualhost:
fqdn: kuard.example.com
routes:
- conditions:
- prefix: /
services:
- name: kuard
port: 80
EOF
```
#### Access the sample service using `curl`
```bash
$ curl -i http://kuard.example.com/healthy
HTTP/1.1 200 OK
Content-Type: text/plain
Date: Thu, 27 Jun 2019 19:42:26 GMT
Content-Length: 2
ok
``` | external-dns | Contour HTTPProxy This tutorial describes how to configure External DNS to use the Contour HTTPProxy source Using the HTTPProxy resource with External DNS requires Contour version 1 5 or greater Example manifests for External DNS Without RBAC yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress source contour httpproxy domain filter external dns test my org com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider aws policy upsert only would prevent ExternalDNS from deleting any records omit to enable full synchronization aws zone type public only look at public hosted zones valid values are public private or no value for both registry txt txt owner id my identifier With RBAC yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiGroups projectcontour io resources httpproxies verbs get watch list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress source contour httpproxy domain filter external dns test my org com will make ExternalDNS see only the hosted zones matching provided domain omit to process all available hosted zones provider aws policy upsert only would prevent ExternalDNS from deleting any records omit to enable full synchronization aws zone type public only look at public hosted zones valid values are public private or no value for both registry txt txt owner id my identifier Verify External DNS works The following instructions are based on the Contour example workload https github com projectcontour contour tree master examples example workload httpproxy Install a sample service bash kubectl apply f EOF apiVersion apps v1 kind Deployment metadata labels app kuard name kuard spec replicas 3 selector matchLabels app kuard template metadata labels app kuard spec containers image gcr io kuar demo kuard amd64 1 name kuard apiVersion v1 kind Service metadata labels app kuard name kuard spec ports port 80 protocol TCP targetPort 8080 selector app kuard sessionAffinity None type ClusterIP EOF Then create an HTTPProxy kubectl apply f EOF apiVersion projectcontour io v1 kind HTTPProxy metadata labels app kuard name kuard namespace default spec virtualhost fqdn kuard example com routes conditions prefix services name kuard port 80 EOF Access the sample service using curl bash curl i http kuard example com healthy HTTP 1 1 200 OK Content Type text plain Date Thu 27 Jun 2019 19 42 26 GMT Content Length 2 ok |
external-dns CoreDNS with minikube warning This tutorial is out of date You need to This tutorial describes how to setup ExternalDNS for usage within a cluster that makes use of and informationsource PRs to update it are welcome | # CoreDNS with minikube
:warning: This tutorial is out of date.
:information_source: PRs to update it are welcome !
This tutorial describes how to setup ExternalDNS for usage within a [minikube](https://github.com/kubernetes/minikube) cluster that makes use of [CoreDNS](https://github.com/coredns/coredns) and [nginx ingress controller](https://github.com/kubernetes/ingress-nginx).
You need to:
* install CoreDNS with [etcd](https://github.com/etcd-io/etcd) enabled
* install external-dns with coredns as a provider
* enable ingress controller for the minikube cluster
## Creating a cluster
```shell
minikube start
```
## Installing CoreDNS with etcd enabled
Helm chart is used to install etcd and CoreDNS.
### Initializing helm chart
```shell
helm init
```
### Installing etcd
[etcd operator](https://github.com/coreos/etcd-operator) is used to manage etcd clusters.
```
helm install stable/etcd-operator --name my-etcd-op
```
etcd cluster is installed with example yaml from etcd operator website.
```shell
kubectl apply -f https://raw.githubusercontent.com/coreos/etcd-operator/HEAD/example/example-etcd-cluster.yaml
```
### Installing CoreDNS
In order to make CoreDNS work with etcd backend, values.yaml of the chart should be changed with corresponding configurations.
```
wget https://raw.githubusercontent.com/helm/charts/HEAD/stable/coredns/values.yaml
```
You need to edit/patch the file with below diff
```diff
diff --git a/values.yaml b/values.yaml
index 964e72b..e2fa934 100644
--- a/values.yaml
+++ b/values.yaml
@@ -27,12 +27,12 @@ service:
rbac:
# If true, create & use RBAC resources
- create: false
+ create: true
# Ignored if rbac.create is true
serviceAccountName: default
# isClusterService specifies whether chart should be deployed as cluster-service or normal k8s app.
-isClusterService: true
+isClusterService: false
servers:
- zones:
@@ -51,6 +51,12 @@ servers:
parameters: 0.0.0.0:9153
- name: proxy
parameters: . /etc/resolv.conf
+ - name: etcd
+ parameters: example.org
+ configBlock: |-
+ stubzones
+ path /skydns
+ endpoint http://10.105.68.165:2379
# Complete example with all the options:
# - zones: # the `zones` block can be left out entirely, defaults to "."
```
**Note**:
* IP address of etcd's endpoint should be get from etcd client service. It should be "example-etcd-cluster-client" in this example. This IP address is used through this document for etcd endpoint configuration.
```shell
$ kubectl get svc example-etcd-cluster-client
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
example-etcd-cluster-client ClusterIP 10.105.68.165 <none> 2379/TCP 16m
```
* Parameters should configure your own domain. "example.org" is used in this example.
After configuration done in values.yaml, you can install coredns chart.
```shell
helm install --name my-coredns --values values.yaml stable/coredns
```
## Installing ExternalDNS
### Install external ExternalDNS
ETCD_URLS is configured to etcd client service address.
Optionally, you can configure ETCD_USERNAME and ETCD_PASSWORD for authenticating to etcd. It is also possible to connect to the etcd cluster via HTTPS using the following environment variables: ETCD_CA_FILE, ETCD_CERT_FILE, ETCD_KEY_FILE, ETCD_TLS_SERVER_NAME, ETCD_TLS_INSECURE.
#### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
namespace: kube-system
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=ingress
- --provider=coredns
- --log-level=debug # debug only
env:
- name: ETCD_URLS
value: http://10.105.68.165:2379
```
#### Manifest (for clusters with RBAC enabled)
```yaml
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: kube-system
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
namespace: kube-system
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
namespace: kube-system
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=ingress
- --provider=coredns
- --log-level=debug # debug only
env:
- name: ETCD_URLS
value: http://10.105.68.165:2379
```
## Enable the ingress controller
You can use the ingress controller in minikube cluster. It needs to enable ingress addon in the cluster.
```shell
minikube addons enable ingress
```
## Testing ingress example
```shell
$ cat ingress.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: nginx
spec:
ingressClassName: nginx
rules:
- host: nginx.example.org
http:
paths:
- backend:
serviceName: nginx
servicePort: 80
$ kubectl apply -f ingress.yaml
ingress.extensions "nginx" created
```
Wait a moment until DNS has the ingress IP. The DNS service IP is from CoreDNS service. It is "my-coredns-coredns" in this example.
```shell
$ kubectl get svc my-coredns-coredns
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
my-coredns-coredns ClusterIP 10.100.4.143 <none> 53/UDP 12m
$ kubectl get ingress
NAME HOSTS ADDRESS PORTS AGE
nginx nginx.example.org 10.0.2.15 80 2m
$ kubectl run -it --rm --restart=Never --image=infoblox/dnstools:latest dnstools
If you don't see a command prompt, try pressing enter.
dnstools# dig @10.100.4.143 nginx.example.org +short
10.0.2.15
dnstools#
``` | external-dns | CoreDNS with minikube warning This tutorial is out of date information source PRs to update it are welcome This tutorial describes how to setup ExternalDNS for usage within a minikube https github com kubernetes minikube cluster that makes use of CoreDNS https github com coredns coredns and nginx ingress controller https github com kubernetes ingress nginx You need to install CoreDNS with etcd https github com etcd io etcd enabled install external dns with coredns as a provider enable ingress controller for the minikube cluster Creating a cluster shell minikube start Installing CoreDNS with etcd enabled Helm chart is used to install etcd and CoreDNS Initializing helm chart shell helm init Installing etcd etcd operator https github com coreos etcd operator is used to manage etcd clusters helm install stable etcd operator name my etcd op etcd cluster is installed with example yaml from etcd operator website shell kubectl apply f https raw githubusercontent com coreos etcd operator HEAD example example etcd cluster yaml Installing CoreDNS In order to make CoreDNS work with etcd backend values yaml of the chart should be changed with corresponding configurations wget https raw githubusercontent com helm charts HEAD stable coredns values yaml You need to edit patch the file with below diff diff diff git a values yaml b values yaml index 964e72b e2fa934 100644 a values yaml b values yaml 27 12 27 12 service rbac If true create use RBAC resources create false create true Ignored if rbac create is true serviceAccountName default isClusterService specifies whether chart should be deployed as cluster service or normal k8s app isClusterService true isClusterService false servers zones 51 6 51 12 servers parameters 0 0 0 0 9153 name proxy parameters etc resolv conf name etcd parameters example org configBlock stubzones path skydns endpoint http 10 105 68 165 2379 Complete example with all the options zones the zones block can be left out entirely defaults to Note IP address of etcd s endpoint should be get from etcd client service It should be example etcd cluster client in this example This IP address is used through this document for etcd endpoint configuration shell kubectl get svc example etcd cluster client NAME TYPE CLUSTER IP EXTERNAL IP PORT S AGE example etcd cluster client ClusterIP 10 105 68 165 none 2379 TCP 16m Parameters should configure your own domain example org is used in this example After configuration done in values yaml you can install coredns chart shell helm install name my coredns values values yaml stable coredns Installing ExternalDNS Install external ExternalDNS ETCD URLS is configured to etcd client service address Optionally you can configure ETCD USERNAME and ETCD PASSWORD for authenticating to etcd It is also possible to connect to the etcd cluster via HTTPS using the following environment variables ETCD CA FILE ETCD CERT FILE ETCD KEY FILE ETCD TLS SERVER NAME ETCD TLS INSECURE Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns namespace kube system spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source ingress provider coredns log level debug debug only env name ETCD URLS value http 10 105 68 165 2379 Manifest for clusters with RBAC enabled yaml apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace kube system apiVersion v1 kind ServiceAccount metadata name external dns namespace kube system apiVersion apps v1 kind Deployment metadata name external dns namespace kube system spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source ingress provider coredns log level debug debug only env name ETCD URLS value http 10 105 68 165 2379 Enable the ingress controller You can use the ingress controller in minikube cluster It needs to enable ingress addon in the cluster shell minikube addons enable ingress Testing ingress example shell cat ingress yaml apiVersion networking k8s io v1 kind Ingress metadata name nginx spec ingressClassName nginx rules host nginx example org http paths backend serviceName nginx servicePort 80 kubectl apply f ingress yaml ingress extensions nginx created Wait a moment until DNS has the ingress IP The DNS service IP is from CoreDNS service It is my coredns coredns in this example shell kubectl get svc my coredns coredns NAME TYPE CLUSTER IP EXTERNAL IP PORT S AGE my coredns coredns ClusterIP 10 100 4 143 none 53 UDP 12m kubectl get ingress NAME HOSTS ADDRESS PORTS AGE nginx nginx example org 10 0 2 15 80 2m kubectl run it rm restart Never image infoblox dnstools latest dnstools If you don t see a command prompt try pressing enter dnstools dig 10 100 4 143 nginx example org short 10 0 2 15 dnstools |
external-dns Create a DNS zone which will contain the managed DNS records Let s use Make sure to use the latest version of ExternalDNS for this tutorial Oracle Cloud Infrastructure Creating an OCI DNS Zone as a reference here Make note of the OCID of the compartment This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OCI DNS | # Oracle Cloud Infrastructure
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OCI DNS.
Make sure to use the latest version of ExternalDNS for this tutorial.
## Creating an OCI DNS Zone
Create a DNS zone which will contain the managed DNS records. Let's use
`example.com` as a reference here. Make note of the OCID of the compartment
in which you created the zone; you'll need to provide that later.
For more information about OCI DNS see the documentation [here][1].
## Using Private OCI DNS Zones
By default, the ExternalDNS OCI provider is configured to use Global OCI
DNS Zones. If you want to use Private OCI DNS Zones, add the following
argument to the ExternalDNS controller:
```
--oci-zone-scope=PRIVATE
```
To use both Global and Private OCI DNS Zones, set the OCI Zone Scope to be
empty:
```
--oci-zone-scope=
```
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
The OCI provider supports two authentication options: key-based and instance
principals.
### Key-based
We first need to create a config file containing the information needed to connect with the OCI API.
Create a new file (oci.yaml) and modify the contents to match the example
below. Be sure to adjust the values to match your own credentials, and the OCID
of the compartment containing the zone:
```yaml
auth:
region: us-phoenix-1
tenancy: ocid1.tenancy.oc1...
user: ocid1.user.oc1...
key: |
-----BEGIN RSA PRIVATE KEY-----
-----END RSA PRIVATE KEY-----
fingerprint: af:81:71:8e...
# Omit if there is not a password for the key
passphrase: Tx1jRk...
compartment: ocid1.compartment.oc1...
```
Create a secret using the config file above:
```shell
$ kubectl create secret generic external-dns-config --from-file=oci.yaml
```
### OCI IAM Instance Principal
If you're running ExternalDNS within OCI, you can use OCI IAM instance
principals to authenticate with OCI. This obviates the need to create the
secret with your credentials. You'll need to ensure an OCI IAM policy exists
with a statement granting the `manage dns` permission on zones and records in
the target compartment to the dynamic group covering your instance running
ExternalDNS.
E.g.:
```
Allow dynamic-group <dynamic-group-name> to manage dns in compartment id <target-compartment-OCID>
```
You'll also need to add the `--oci-auth-instance-principal` flag to enable
this type of authentication. Finally, you'll need to add the
`--oci-compartment-ocid=ocid1.compartment.oc1...` flag to provide the OCID of
the compartment containing the zone to be managed.
For more information about OCI IAM instance principals, see the documentation [here][2].
For more information about OCI IAM policy details for the DNS service, see the documentation [here][3].
### OCI IAM Workload Identity
If you're running ExternalDNS within an OCI Container Engine for Kubernetes (OKE) cluster,
you can use OCI IAM Workload Identity to authenticate with OCI. You'll need to ensure an
OCI IAM policy exists with a statement granting the `manage dns` permission on zones and
records in the target compartment covering your OKE cluster running ExternalDNS.
E.g.:
```
Allow any-user to manage dns in compartment <compartment-name> where all {request.principal.type='workload',request.principal.cluster_id='<cluster-ocid>',request.principal.service_account='external-dns'}
```
You'll also need to create a new file (oci.yaml) and modify the contents to match the example
below. Be sure to adjust the values to match your region and the OCID
of the compartment containing the zone:
```yaml
auth:
region: us-phoenix-1
useWorkloadIdentity: true
compartment: ocid1.compartment.oc1...
```
Create a secret using the config file above:
```shell
$ kubectl create secret generic external-dns-config --from-file=oci.yaml
```
## Manifest (for clusters with RBAC enabled)
Apply the following manifest to deploy ExternalDNS.
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --provider=oci
- --policy=upsert-only # prevent ExternalDNS from deleting any records, omit to enable full synchronization
- --txt-owner-id=my-identifier
# Specifies the OCI DNS Zone scope, defaults to GLOBAL.
# May be GLOBAL, PRIVATE, or an empty value to specify both GLOBAL and PRIVATE OCI DNS Zones
# - --oci-zone-scope=GLOBAL
# Specifies the zone cache duration, defaults to 0s. If set to 0s, the zone cache is disabled.
# Use of zone caching is recommended to reduce the amount of requests sent to OCI DNS.
# - --oci-zones-cache-duration=0s
volumeMounts:
- name: config
mountPath: /etc/kubernetes/
volumes:
- name: config
secret:
secretName: external-dns-config
```
## Verify ExternalDNS works (Service example)
Create the following sample application to test that ExternalDNS works.
> For services ExternalDNS will look for the annotation `external-dns.alpha.kubernetes.io/hostname` on the service and use the corresponding value.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: example.com
spec:
type: LoadBalancer
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
name: http
```
Apply the manifest above and wait roughly two minutes and check that a corresponding DNS record for your service was created.
```
$ kubectl apply -f nginx.yaml
```
[1]: https://docs.cloud.oracle.com/iaas/Content/DNS/Concepts/dnszonemanagement.htm
[2]: https://docs.cloud.oracle.com/iaas/Content/Identity/Reference/dnspolicyreference.htm
[3]: https://docs.cloud.oracle.com/iaas/Content/Identity/Tasks/callingservicesfrominstances.htm
| external-dns | Oracle Cloud Infrastructure This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using OCI DNS Make sure to use the latest version of ExternalDNS for this tutorial Creating an OCI DNS Zone Create a DNS zone which will contain the managed DNS records Let s use example com as a reference here Make note of the OCID of the compartment in which you created the zone you ll need to provide that later For more information about OCI DNS see the documentation here 1 Using Private OCI DNS Zones By default the ExternalDNS OCI provider is configured to use Global OCI DNS Zones If you want to use Private OCI DNS Zones add the following argument to the ExternalDNS controller oci zone scope PRIVATE To use both Global and Private OCI DNS Zones set the OCI Zone Scope to be empty oci zone scope Deploy ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with The OCI provider supports two authentication options key based and instance principals Key based We first need to create a config file containing the information needed to connect with the OCI API Create a new file oci yaml and modify the contents to match the example below Be sure to adjust the values to match your own credentials and the OCID of the compartment containing the zone yaml auth region us phoenix 1 tenancy ocid1 tenancy oc1 user ocid1 user oc1 key BEGIN RSA PRIVATE KEY END RSA PRIVATE KEY fingerprint af 81 71 8e Omit if there is not a password for the key passphrase Tx1jRk compartment ocid1 compartment oc1 Create a secret using the config file above shell kubectl create secret generic external dns config from file oci yaml OCI IAM Instance Principal If you re running ExternalDNS within OCI you can use OCI IAM instance principals to authenticate with OCI This obviates the need to create the secret with your credentials You ll need to ensure an OCI IAM policy exists with a statement granting the manage dns permission on zones and records in the target compartment to the dynamic group covering your instance running ExternalDNS E g Allow dynamic group dynamic group name to manage dns in compartment id target compartment OCID You ll also need to add the oci auth instance principal flag to enable this type of authentication Finally you ll need to add the oci compartment ocid ocid1 compartment oc1 flag to provide the OCID of the compartment containing the zone to be managed For more information about OCI IAM instance principals see the documentation here 2 For more information about OCI IAM policy details for the DNS service see the documentation here 3 OCI IAM Workload Identity If you re running ExternalDNS within an OCI Container Engine for Kubernetes OKE cluster you can use OCI IAM Workload Identity to authenticate with OCI You ll need to ensure an OCI IAM policy exists with a statement granting the manage dns permission on zones and records in the target compartment covering your OKE cluster running ExternalDNS E g Allow any user to manage dns in compartment compartment name where all request principal type workload request principal cluster id cluster ocid request principal service account external dns You ll also need to create a new file oci yaml and modify the contents to match the example below Be sure to adjust the values to match your region and the OCID of the compartment containing the zone yaml auth region us phoenix 1 useWorkloadIdentity true compartment ocid1 compartment oc1 Create a secret using the config file above shell kubectl create secret generic external dns config from file oci yaml Manifest for clusters with RBAC enabled Apply the following manifest to deploy ExternalDNS yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress provider oci policy upsert only prevent ExternalDNS from deleting any records omit to enable full synchronization txt owner id my identifier Specifies the OCI DNS Zone scope defaults to GLOBAL May be GLOBAL PRIVATE or an empty value to specify both GLOBAL and PRIVATE OCI DNS Zones oci zone scope GLOBAL Specifies the zone cache duration defaults to 0s If set to 0s the zone cache is disabled Use of zone caching is recommended to reduce the amount of requests sent to OCI DNS oci zones cache duration 0s volumeMounts name config mountPath etc kubernetes volumes name config secret secretName external dns config Verify ExternalDNS works Service example Create the following sample application to test that ExternalDNS works For services ExternalDNS will look for the annotation external dns alpha kubernetes io hostname on the service and use the corresponding value yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname example com spec type LoadBalancer ports port 80 name http targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 name http Apply the manifest above and wait roughly two minutes and check that a corresponding DNS record for your service was created kubectl apply f nginx yaml 1 https docs cloud oracle com iaas Content DNS Concepts dnszonemanagement htm 2 https docs cloud oracle com iaas Content Identity Reference dnspolicyreference htm 3 https docs cloud oracle com iaas Content Identity Tasks callingservicesfrominstances htm |
external-dns AWS Cloud Map API is an alternative approach to managing DNS records directly using the Route53 API It is more suitable for a dynamic environment where service endpoints change frequently It abstracts away technical details of the DNS protocol and offers a simplified model AWS Cloud Map consists of three main API calls CreatePublicDnsNamespace automatically creates a DNS hosted zone CreateService creates a new named service inside the specified namespace This tutorial describes how to set up ExternalDNS for usage within a Kubernetes cluster with RegisterInstance DeregisterInstance can be called multiple times to create a DNS record for the specified Service AWS Cloud Map API | # AWS Cloud Map API
This tutorial describes how to set up ExternalDNS for usage within a Kubernetes cluster with [AWS Cloud Map API](https://docs.aws.amazon.com/cloud-map/).
**AWS Cloud Map** API is an alternative approach to managing DNS records directly using the Route53 API. It is more suitable for a dynamic environment where service endpoints change frequently. It abstracts away technical details of the DNS protocol and offers a simplified model. AWS Cloud Map consists of three main API calls:
* CreatePublicDnsNamespace – automatically creates a DNS hosted zone
* CreateService – creates a new named service inside the specified namespace
* RegisterInstance/DeregisterInstance – can be called multiple times to create a DNS record for the specified *Service*
Learn more about the API in the [AWS Cloud Map API Reference](https://docs.aws.amazon.com/cloud-map/latest/api/API_Operations.html).
## IAM Permissions
To use the AWS Cloud Map API, a user must have permissions to create the DNS namespace. You need to make sure that your nodes (on which External DNS runs) have an IAM instance profile with the `AWSCloudMapFullAccess` managed policy attached, that provides following permissions:
```
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"route53:GetHostedZone",
"route53:ListHostedZonesByName",
"route53:CreateHostedZone",
"route53:DeleteHostedZone",
"route53:ChangeResourceRecordSets",
"route53:CreateHealthCheck",
"route53:GetHealthCheck",
"route53:DeleteHealthCheck",
"route53:UpdateHealthCheck",
"ec2:DescribeVpcs",
"ec2:DescribeRegions",
"servicediscovery:*"
],
"Resource": [
"*"
]
}
]
}
```
### IAM Permissions with ABAC
You can use Attribute-based access control(ABAC) for advanced deployments.
You can define AWS tags that are applied to services created by the controller. By doing so, you can have precise control over your IAM policy to limit the scope of the permissions to services managed by the controller, rather than having to grant full permissions on your entire AWS account.
To pass tags to service creation, use either CLI flags or environment variables:
*cli:* `--aws-sd-create-tag=key1=value1 --aws-sd-create-tag=key2=value2`
*environment:* `EXTERNAL_DNS_AWS_SD_CREATE_TAG=key1=value1\nkey2=value2`
Using tags, your `servicediscovery` policy can become:
```
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"servicediscovery:ListNamespaces",
"servicediscovery:ListServices"
],
"Resource": [
"*"
]
},
{
"Effect": "Allow",
"Action": [
"servicediscovery:CreateService",
"servicediscovery:TagResource"
],
"Resource": [
"*"
],
"Condition": {
"StringEquals": {
"aws:RequestTag/YOUR_TAG_KEY": "YOUR_TAG_VALUE"
}
}
},
{
"Effect": "Allow",
"Action": [
"servicediscovery:DiscoverInstances"
],
"Resource": [
"*"
],
"Condition": {
"StringEquals": {
"servicediscovery:NamespaceName": "YOUR_NAMESPACE_NAME"
}
}
},
{
"Effect": "Allow",
"Action": [
"servicediscovery:RegisterInstance",
"servicediscovery:DeregisterInstance",
"servicediscovery:DeleteService",
"servicediscovery:UpdateService"
],
"Resource": [
"*"
],
"Condition": {
"StringEquals": {
"aws:ResourceTag/YOUR_TAG_KEY": "YOUR_TAG_VALUE"
}
}
}
]
}
```
## Set up a namespace
Create a DNS namespace using the AWS Cloud Map API:
```console
$ aws servicediscovery create-public-dns-namespace --name "external-dns-test.my-org.com"
```
Verify that the namespace was truly created
```console
$ aws servicediscovery list-namespaces
```
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster that you want to test ExternalDNS with.
Then apply the following manifest file to deploy ExternalDNS.
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
env:
- name: AWS_REGION
value: us-east-1 # put your CloudMap NameSpace region
args:
- --source=service
- --source=ingress
- --domain-filter=external-dns-test.my-org.com # Makes ExternalDNS see only the namespaces that match the specified domain. Omit the filter if you want to process all available namespaces.
- --provider=aws-sd
- --aws-zone-type=public # Only look at public namespaces. Valid values are public, private, or no value for both)
- --txt-owner-id=my-identifier
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list","watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
env:
- name: AWS_REGION
value: us-east-1 # put your CloudMap NameSpace region
args:
- --source=service
- --source=ingress
- --domain-filter=external-dns-test.my-org.com # Makes ExternalDNS see only the namespaces that match the specified domain. Omit the filter if you want to process all available namespaces.
- --provider=aws-sd
- --aws-zone-type=public # Only look at public namespaces. Valid values are public, private, or no value for both)
- --txt-owner-id=my-identifier
```
## Verify that ExternalDNS works (Service example)
Create the following sample application to test that ExternalDNS works.
> For services ExternalDNS will look for the annotation `external-dns.alpha.kubernetes.io/hostname` on the service and use the corresponding value.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.my-org.com
spec:
type: LoadBalancer
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
name: http
```
After one minute check that a corresponding DNS record for your service was created in your hosted zone. We recommended that you use the [Amazon Route53 console](https://console.aws.amazon.com/route53) for that purpose.
## Custom TTL
The default DNS record TTL (time to live) is 300 seconds. You can customize this value by setting the annotation `external-dns.alpha.kubernetes.io/ttl`.
For example, modify the service manifest YAML file above:
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.my-org.com
external-dns.alpha.kubernetes.io/ttl: "60"
spec:
...
```
This will set the TTL for the DNS record to 60 seconds.
## IPv6 Support
If your Kubernetes cluster is configured with IPv6 support, such as an [EKS cluster with IPv6 support](https://docs.aws.amazon.com/eks/latest/userguide/deploy-ipv6-cluster.html), ExternalDNS can
also create AAAA DNS records.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: nginx.external-dns-test.my-org.com
external-dns.alpha.kubernetes.io/ttl: "60"
spec:
ipFamilies:
- "IPv6"
type: NodePort
ports:
- port: 80
name: http
targetPort: 80
selector:
app: nginx
```
:information_source: The AWS-SD provider does not currently support dualstack load balancers and will only create A records for these at this time. See the AWS provider and the [AWS Load Balancer Controller Tutorial](./aws-load-balancer-controller.md) for dualstack load balancer support.
## Clean up
Delete all service objects before terminating the cluster so all load balancers get cleaned up correctly.
```console
$ kubectl delete service nginx
```
Give ExternalDNS some time to clean up the DNS records for you. Then delete the remaining service and namespace.
```console
$ aws servicediscovery list-services
{
"Services": [
{
"Id": "srv-6dygt5ywvyzvi3an",
"Arn": "arn:aws:servicediscovery:us-west-2:861574988794:service/srv-6dygt5ywvyzvi3an",
"Name": "nginx"
}
]
}
```
```console
$ aws servicediscovery delete-service --id srv-6dygt5ywvyzvi3an
```
```console
$ aws servicediscovery list-namespaces
{
"Namespaces": [
{
"Type": "DNS_PUBLIC",
"Id": "ns-durf2oxu4gxcgo6z",
"Arn": "arn:aws:servicediscovery:us-west-2:861574988794:namespace/ns-durf2oxu4gxcgo6z",
"Name": "external-dns-test.my-org.com"
}
]
}
```
```console
$ aws servicediscovery delete-namespace --id ns-durf2oxu4gxcgo6z
``` | external-dns | AWS Cloud Map API This tutorial describes how to set up ExternalDNS for usage within a Kubernetes cluster with AWS Cloud Map API https docs aws amazon com cloud map AWS Cloud Map API is an alternative approach to managing DNS records directly using the Route53 API It is more suitable for a dynamic environment where service endpoints change frequently It abstracts away technical details of the DNS protocol and offers a simplified model AWS Cloud Map consists of three main API calls CreatePublicDnsNamespace automatically creates a DNS hosted zone CreateService creates a new named service inside the specified namespace RegisterInstance DeregisterInstance can be called multiple times to create a DNS record for the specified Service Learn more about the API in the AWS Cloud Map API Reference https docs aws amazon com cloud map latest api API Operations html IAM Permissions To use the AWS Cloud Map API a user must have permissions to create the DNS namespace You need to make sure that your nodes on which External DNS runs have an IAM instance profile with the AWSCloudMapFullAccess managed policy attached that provides following permissions Version 2012 10 17 Statement Effect Allow Action route53 GetHostedZone route53 ListHostedZonesByName route53 CreateHostedZone route53 DeleteHostedZone route53 ChangeResourceRecordSets route53 CreateHealthCheck route53 GetHealthCheck route53 DeleteHealthCheck route53 UpdateHealthCheck ec2 DescribeVpcs ec2 DescribeRegions servicediscovery Resource IAM Permissions with ABAC You can use Attribute based access control ABAC for advanced deployments You can define AWS tags that are applied to services created by the controller By doing so you can have precise control over your IAM policy to limit the scope of the permissions to services managed by the controller rather than having to grant full permissions on your entire AWS account To pass tags to service creation use either CLI flags or environment variables cli aws sd create tag key1 value1 aws sd create tag key2 value2 environment EXTERNAL DNS AWS SD CREATE TAG key1 value1 nkey2 value2 Using tags your servicediscovery policy can become Version 2012 10 17 Statement Effect Allow Action servicediscovery ListNamespaces servicediscovery ListServices Resource Effect Allow Action servicediscovery CreateService servicediscovery TagResource Resource Condition StringEquals aws RequestTag YOUR TAG KEY YOUR TAG VALUE Effect Allow Action servicediscovery DiscoverInstances Resource Condition StringEquals servicediscovery NamespaceName YOUR NAMESPACE NAME Effect Allow Action servicediscovery RegisterInstance servicediscovery DeregisterInstance servicediscovery DeleteService servicediscovery UpdateService Resource Condition StringEquals aws ResourceTag YOUR TAG KEY YOUR TAG VALUE Set up a namespace Create a DNS namespace using the AWS Cloud Map API console aws servicediscovery create public dns namespace name external dns test my org com Verify that the namespace was truly created console aws servicediscovery list namespaces Deploy ExternalDNS Connect your kubectl client to the cluster that you want to test ExternalDNS with Then apply the following manifest file to deploy ExternalDNS Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 env name AWS REGION value us east 1 put your CloudMap NameSpace region args source service source ingress domain filter external dns test my org com Makes ExternalDNS see only the namespaces that match the specified domain Omit the filter if you want to process all available namespaces provider aws sd aws zone type public Only look at public namespaces Valid values are public private or no value for both txt owner id my identifier Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 env name AWS REGION value us east 1 put your CloudMap NameSpace region args source service source ingress domain filter external dns test my org com Makes ExternalDNS see only the namespaces that match the specified domain Omit the filter if you want to process all available namespaces provider aws sd aws zone type public Only look at public namespaces Valid values are public private or no value for both txt owner id my identifier Verify that ExternalDNS works Service example Create the following sample application to test that ExternalDNS works For services ExternalDNS will look for the annotation external dns alpha kubernetes io hostname on the service and use the corresponding value yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test my org com spec type LoadBalancer ports port 80 name http targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 name http After one minute check that a corresponding DNS record for your service was created in your hosted zone We recommended that you use the Amazon Route53 console https console aws amazon com route53 for that purpose Custom TTL The default DNS record TTL time to live is 300 seconds You can customize this value by setting the annotation external dns alpha kubernetes io ttl For example modify the service manifest YAML file above yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test my org com external dns alpha kubernetes io ttl 60 spec This will set the TTL for the DNS record to 60 seconds IPv6 Support If your Kubernetes cluster is configured with IPv6 support such as an EKS cluster with IPv6 support https docs aws amazon com eks latest userguide deploy ipv6 cluster html ExternalDNS can also create AAAA DNS records yaml apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname nginx external dns test my org com external dns alpha kubernetes io ttl 60 spec ipFamilies IPv6 type NodePort ports port 80 name http targetPort 80 selector app nginx information source The AWS SD provider does not currently support dualstack load balancers and will only create A records for these at this time See the AWS provider and the AWS Load Balancer Controller Tutorial aws load balancer controller md for dualstack load balancer support Clean up Delete all service objects before terminating the cluster so all load balancers get cleaned up correctly console kubectl delete service nginx Give ExternalDNS some time to clean up the DNS records for you Then delete the remaining service and namespace console aws servicediscovery list services Services Id srv 6dygt5ywvyzvi3an Arn arn aws servicediscovery us west 2 861574988794 service srv 6dygt5ywvyzvi3an Name nginx console aws servicediscovery delete service id srv 6dygt5ywvyzvi3an console aws servicediscovery list namespaces Namespaces Type DNS PUBLIC Id ns durf2oxu4gxcgo6z Arn arn aws servicediscovery us west 2 861574988794 namespace ns durf2oxu4gxcgo6z Name external dns test my org com console aws servicediscovery delete namespace id ns durf2oxu4gxcgo6z |
external-dns This tutorial describes how to use ExternalDNS with the aws load balancer controller 1 Follow the to setup ExternalDNS for use in Kubernetes clusters AWS Load Balancer Controller Setting up ExternalDNS and aws load balancer controller 1 https kubernetes sigs github io aws load balancer controller running in AWS Specify the argument so that ExternalDNS will look | # AWS Load Balancer Controller
This tutorial describes how to use ExternalDNS with the [aws-load-balancer-controller][1].
[1]: https://kubernetes-sigs.github.io/aws-load-balancer-controller
## Setting up ExternalDNS and aws-load-balancer-controller
Follow the [AWS tutorial](aws.md) to setup ExternalDNS for use in Kubernetes clusters
running in AWS. Specify the `source=ingress` argument so that ExternalDNS will look
for hostnames in Ingress objects. In addition, you may wish to limit which Ingress
objects are used as an ExternalDNS source via the `ingress-class` argument, but
this is not required.
For help setting up the AWS Load Balancer Controller, follow the [Setup Guide][2].
[2]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/latest/deploy/installation/
Note that the AWS Load Balancer Controller uses the same tags for [subnet auto-discovery][3]
as Kubernetes does with the AWS cloud provider.
[3]: https://kubernetes-sigs.github.io/aws-load-balancer-controller/latest/deploy/subnet_discovery/
In the examples that follow, it is assumed that you configured the ALB Ingress
Controller with the `ingress-class=alb` argument (not to be confused with the
same argument to ExternalDNS) so that the controller will only respect Ingress
objects with the `ingressClassName` field set to "alb".
## Deploy an example application
Create the following sample "echoserver" application to demonstrate how
ExternalDNS works with ALB ingress objects.
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: echoserver
spec:
replicas: 1
selector:
matchLabels:
app: echoserver
template:
metadata:
labels:
app: echoserver
spec:
containers:
- image: gcr.io/google_containers/echoserver:1.4
imagePullPolicy: Always
name: echoserver
ports:
- containerPort: 8080
---
apiVersion: v1
kind: Service
metadata:
name: echoserver
spec:
ports:
- port: 80
targetPort: 8080
protocol: TCP
type: NodePort
selector:
app: echoserver
```
Note that the Service object is of type `NodePort`. We don't need a Service of
type `LoadBalancer` here, since we will be using an Ingress to create an ALB.
## Ingress examples
Create the following Ingress to expose the echoserver application to the Internet.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
annotations:
alb.ingress.kubernetes.io/scheme: internet-facing
name: echoserver
spec:
ingressClassName: alb
rules:
- host: echoserver.mycluster.example.org
http: &echoserver_root
paths:
- path: /
backend:
service:
name: echoserver
port:
number: 80
pathType: Prefix
- host: echoserver.example.org
http: *echoserver_root
```
The above should result in the creation of an (ipv4) ALB in AWS which will forward
traffic to the echoserver application.
If the `source=ingress` argument is specified, then ExternalDNS will create DNS
records based on the hosts specified in ingress objects. The above example would
result in two alias records being created, `echoserver.mycluster.example.org` and
`echoserver.example.org`, which both alias the ALB that is associated with the
Ingress object.
Note that the above example makes use of the YAML anchor feature to avoid having
to repeat the http section for multiple hosts that use the exact same paths. If
this Ingress object will only be fronting one backend Service, we might instead
create the following:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
annotations:
alb.ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: echoserver.mycluster.example.org, echoserver.example.org
name: echoserver
spec:
ingressClassName: alb
rules:
- http:
paths:
- path: /
backend:
service:
name: echoserver
port:
number: 80
pathType: Prefix
```
In the above example we create a default path that works for any hostname, and
make use of the `external-dns.alpha.kubernetes.io/hostname` annotation to create
multiple aliases for the resulting ALB.
## Dualstack ALBs
AWS [supports][4] both IPv4 and "dualstack" (both IPv4 and IPv6) interfaces for ALBs.
The AWS Load Balancer Controller uses the `alb.ingress.kubernetes.io/ip-address-type`
annotation (which defaults to `ipv4`) to determine this. If this annotation is
set to `dualstack` then ExternalDNS will create two alias records (one A record
and one AAAA record) for each hostname associated with the Ingress object.
[4]: https://docs.aws.amazon.com/elasticloadbalancing/latest/application/application-load-balancers.html#ip-address-type
Example:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
annotations:
alb.ingress.kubernetes.io/scheme: internet-facing
alb.ingress.kubernetes.io/ip-address-type: dualstack
name: echoserver
spec:
ingressClassName: alb
rules:
- host: echoserver.example.org
http:
paths:
- path: /
backend:
service:
name: echoserver
port:
number: 80
pathType: Prefix
```
The above Ingress object will result in the creation of an ALB with a dualstack
interface. ExternalDNS will create both an A `echoserver.example.org` record and
an AAAA record of the same name, that each are aliases for the same ALB. | external-dns | AWS Load Balancer Controller This tutorial describes how to use ExternalDNS with the aws load balancer controller 1 1 https kubernetes sigs github io aws load balancer controller Setting up ExternalDNS and aws load balancer controller Follow the AWS tutorial aws md to setup ExternalDNS for use in Kubernetes clusters running in AWS Specify the source ingress argument so that ExternalDNS will look for hostnames in Ingress objects In addition you may wish to limit which Ingress objects are used as an ExternalDNS source via the ingress class argument but this is not required For help setting up the AWS Load Balancer Controller follow the Setup Guide 2 2 https kubernetes sigs github io aws load balancer controller latest deploy installation Note that the AWS Load Balancer Controller uses the same tags for subnet auto discovery 3 as Kubernetes does with the AWS cloud provider 3 https kubernetes sigs github io aws load balancer controller latest deploy subnet discovery In the examples that follow it is assumed that you configured the ALB Ingress Controller with the ingress class alb argument not to be confused with the same argument to ExternalDNS so that the controller will only respect Ingress objects with the ingressClassName field set to alb Deploy an example application Create the following sample echoserver application to demonstrate how ExternalDNS works with ALB ingress objects yaml apiVersion apps v1 kind Deployment metadata name echoserver spec replicas 1 selector matchLabels app echoserver template metadata labels app echoserver spec containers image gcr io google containers echoserver 1 4 imagePullPolicy Always name echoserver ports containerPort 8080 apiVersion v1 kind Service metadata name echoserver spec ports port 80 targetPort 8080 protocol TCP type NodePort selector app echoserver Note that the Service object is of type NodePort We don t need a Service of type LoadBalancer here since we will be using an Ingress to create an ALB Ingress examples Create the following Ingress to expose the echoserver application to the Internet yaml apiVersion networking k8s io v1 kind Ingress metadata annotations alb ingress kubernetes io scheme internet facing name echoserver spec ingressClassName alb rules host echoserver mycluster example org http echoserver root paths path backend service name echoserver port number 80 pathType Prefix host echoserver example org http echoserver root The above should result in the creation of an ipv4 ALB in AWS which will forward traffic to the echoserver application If the source ingress argument is specified then ExternalDNS will create DNS records based on the hosts specified in ingress objects The above example would result in two alias records being created echoserver mycluster example org and echoserver example org which both alias the ALB that is associated with the Ingress object Note that the above example makes use of the YAML anchor feature to avoid having to repeat the http section for multiple hosts that use the exact same paths If this Ingress object will only be fronting one backend Service we might instead create the following yaml apiVersion networking k8s io v1 kind Ingress metadata annotations alb ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname echoserver mycluster example org echoserver example org name echoserver spec ingressClassName alb rules http paths path backend service name echoserver port number 80 pathType Prefix In the above example we create a default path that works for any hostname and make use of the external dns alpha kubernetes io hostname annotation to create multiple aliases for the resulting ALB Dualstack ALBs AWS supports 4 both IPv4 and dualstack both IPv4 and IPv6 interfaces for ALBs The AWS Load Balancer Controller uses the alb ingress kubernetes io ip address type annotation which defaults to ipv4 to determine this If this annotation is set to dualstack then ExternalDNS will create two alias records one A record and one AAAA record for each hostname associated with the Ingress object 4 https docs aws amazon com elasticloadbalancing latest application application load balancers html ip address type Example yaml apiVersion networking k8s io v1 kind Ingress metadata annotations alb ingress kubernetes io scheme internet facing alb ingress kubernetes io ip address type dualstack name echoserver spec ingressClassName alb rules host echoserver example org http paths path backend service name echoserver port number 80 pathType Prefix The above Ingress object will result in the creation of an ALB with a dualstack interface ExternalDNS will create both an A echoserver example org record and an AAAA record of the same name that each are aliases for the same ALB |
external-dns For this tutorial please make sure that you are using a version 0 7 2 of ExternalDNS This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using UltraDNS Managing DNS with UltraDNS UltraDNS If you would like to read up on the UltraDNS service you can find additional details here | # UltraDNS
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using UltraDNS.
For this tutorial, please make sure that you are using a version **> 0.7.2** of ExternalDNS.
## Managing DNS with UltraDNS
If you would like to read-up on the UltraDNS service, you can find additional details here: [Introduction to UltraDNS](https://docs.ultradns.com/)
Before proceeding, please create a new DNS Zone that you will create your records in for this tutorial process. For the examples in this tutorial, we will be using `example.com` as our Zone.
## Setting Up UltraDNS Credentials
The following environment variables will be needed to run ExternalDNS with UltraDNS.
`ULTRADNS_USERNAME`,`ULTRADNS_PASSWORD`, &`ULTRADNS_BASEURL`
`ULTRADNS_ACCOUNTNAME`(optional variable).
## Deploying ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
Then, apply one of the following manifests file to deploy ExternalDNS.
- Note: We are assuming the zone is already present within UltraDNS.
- Note: While creating CNAMES as target endpoints, the `--txt-prefix` option is mandatory.
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress # ingress is also possible
- --domain-filter=example.com # (Recommended) We recommend to use this filter as it minimize the time to propagate changes, as there are less number of zones to look into..
- --provider=ultradns
- --txt-prefix=txt-
env:
- name: ULTRADNS_USERNAME
value: ""
- name: ULTRADNS_PASSWORD # The password is required to be BASE64 encrypted.
value: ""
- name: ULTRADNS_BASEURL
value: "https://api.ultradns.com/"
- name: ULTRADNS_ACCOUNTNAME
value: ""
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list","watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service
- --source=ingress
- --domain-filter=example.com #(Recommended) We recommend to use this filter as it minimize the time to propagate changes, as there are less number of zones to look into..
- --provider=ultradns
- --txt-prefix=txt-
env:
- name: ULTRADNS_USERNAME
value: ""
- name: ULTRADNS_PASSWORD # The password is required to be BASE64 encrypted.
value: ""
- name: ULTRADNS_BASEURL
value: "https://api.ultradns.com/"
- name: ULTRADNS_ACCOUNTNAME
value: ""
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: my-app.example.com.
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Please note the annotation on the service. Use the same hostname as the UltraDNS zone created above.
ExternalDNS uses this annotation to determine what services should be registered with DNS. Removing the annotation will cause ExternalDNS to remove the corresponding DNS records.
## Creating the Deployment and Service:
```console
$ kubectl create -f nginx.yaml
$ kubectl create -f external-dns.yaml
```
Depending on where you run your service from, it can take a few minutes for your cloud provider to create an external IP for the service.
Once the service has an external IP assigned, ExternalDNS will notice the new service IP address and will synchronize the UltraDNS records.
## Verifying UltraDNS Records
Please verify on the [UltraDNS UI](https://portal.ultradns.com/login) that the records are created under the zone "example.com".
For more information on UltraDNS UI, refer to (https://docs.ultradns.com/Content/MSP_User_Guide/Content/User%20Guides/MSP_User_Guide/Navigation/Moving%20Around%20the%20UI.htm#_Toc2780722).
Select the zone that was created above (or select the appropriate zone if a different zone was used.)
The external IP address will be displayed as a CNAME record for your zone.
## Cleaning Up the Deployment and Service
Now that we have verified that ExternalDNS will automatically manage your UltraDNS records, you can delete example zones that you created in this tutorial:
```
$ kubectl delete service -f nginx.yaml
$ kubectl delete service -f externaldns.yaml
```
## Examples to Manage your Records
### Creating Multiple A Records Target
- First, you want to create a service file called 'apple-banana-echo.yaml'
```yaml
---
kind: Pod
apiVersion: v1
metadata:
name: example-app
labels:
app: apple
spec:
containers:
- name: example-app
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service
spec:
selector:
app: apple
ports:
- port: 5678 # Default port for image
```
- Then, create service file called 'expose-apple-banana-app.yaml' to expose the services. For more information to deploy ingress controller, refer to (https://kubernetes.github.io/ingress-nginx/deploy/)
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple.example.com.
external-dns.alpha.kubernetes.io/target: 10.10.10.1,10.10.10.23
spec:
rules:
- http:
paths:
- path: /apple
pathType: Prefix
backend:
service:
name: example-service
port:
number: 5678
```
- Then, create the deployment and service:
```console
$ kubectl create -f apple-banana-echo.yaml
$ kubectl create -f expose-apple-banana-app.yaml
$ kubectl create -f external-dns.yaml
```
- Depending on where you run your service from, it can take a few minutes for your cloud provider to create an external IP for the service.
- Please verify on the [UltraDNS UI](https://portal.ultradns.com/login) that the records have been created under the zone "example.com".
- Finally, you will need to clean up the deployment and service. Please verify on the UI afterwards that the records have been deleted from the zone "example.com":
```console
$ kubectl delete -f apple-banana-echo.yaml
$ kubectl delete -f expose-apple-banana-app.yaml
$ kubectl delete -f external-dns.yaml
```
### Creating CNAME Record
- Please note, that prior to deploying the external-dns service, you will need to add the option –txt-prefix=txt- into external-dns.yaml. If this not provided, your records will not be created.
- First, create a service file called 'apple-banana-echo.yaml'
- _Config File Example – kubernetes cluster is on-premise not on cloud_
```yaml
---
kind: Pod
apiVersion: v1
metadata:
name: example-app
labels:
app: apple
spec:
containers:
- name: example-app
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service
spec:
selector:
app: apple
ports:
- port: 5678 # Default port for image
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple.example.com.
external-dns.alpha.kubernetes.io/target: apple.cname.com.
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service
port:
number: 5678
```
- _Config File Example – Kubernetes cluster service from different cloud vendors_
```yaml
---
kind: Pod
apiVersion: v1
metadata:
name: example-app
labels:
app: apple
spec:
containers:
- name: example-app
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service
annotations:
external-dns.alpha.kubernetes.io/hostname: my-app.example.com.
spec:
selector:
app: apple
type: LoadBalancer
ports:
- protocol: TCP
port: 5678
targetPort: 5678
```
- Then, create the deployment and service:
```console
$ kubectl create -f apple-banana-echo.yaml
$ kubectl create -f external-dns.yaml
```
- Depending on where you run your service from, it can take a few minutes for your cloud provider to create an external IP for the service.
- Please verify on the [UltraDNS UI](https://portal.ultradns.com/login), that the records have been created under the zone "example.com".
- Finally, you will need to clean up the deployment and service. Please verify on the UI afterwards that the records have been deleted from the zone "example.com":
```console
$ kubectl delete -f apple-banana-echo.yaml
$ kubectl delete -f external-dns.yaml
```
### Creating Multiple Types Of Records
- Please note, that prior to deploying the external-dns service, you will need to add the option –txt-prefix=txt- into external-dns.yaml. Since you will also be created a CNAME record, If this not provided, your records will not be created.
- First, create a service file called 'apple-banana-echo.yaml'
- _Config File Example – kubernetes cluster is on-premise not on cloud_
```yaml
---
kind: Pod
apiVersion: v1
metadata:
name: example-app
labels:
app: apple
spec:
containers:
- name: example-app
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service
spec:
selector:
app: apple
ports:
- port: 5678 # Default port for image
---
kind: Pod
apiVersion: v1
metadata:
name: example-app1
labels:
app: apple1
spec:
containers:
- name: example-app1
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service1
spec:
selector:
app: apple1
ports:
- port: 5679 # Default port for image
---
kind: Pod
apiVersion: v1
metadata:
name: example-app2
labels:
app: apple2
spec:
containers:
- name: example-app2
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service2
spec:
selector:
app: apple2
ports:
- port: 5680 # Default port for image
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple.example.com.
external-dns.alpha.kubernetes.io/target: apple.cname.com.
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service
port:
number: 5678
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress1
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple-banana.example.com.
external-dns.alpha.kubernetes.io/target: 10.10.10.3
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service1
port:
number: 5679
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress2
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: banana.example.com.
external-dns.alpha.kubernetes.io/target: 10.10.10.3,10.10.10.20
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service2
port:
number: 5680
```
- _Config File Example – Kubernetes cluster service from different cloud vendors_
```yaml
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: my-app.example.com.
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
---
kind: Pod
apiVersion: v1
metadata:
name: example-app
labels:
app: apple
spec:
containers:
- name: example-app
image: hashicorp/http-echo
args:
- "-text=apple"
---
kind: Service
apiVersion: v1
metadata:
name: example-service
spec:
selector:
app: apple
ports:
- port: 5678 # Default port for image
---
kind: Pod
apiVersion: v1
metadata:
name: example-app1
labels:
app: apple1
spec:
containers:
- name: example-app1
image: hashicorp/http-echo
args:
- "-text=apple"
---
apiVersion: extensions/v1beta1
kind: Service
apiVersion: v1
metadata:
name: example-service1
spec:
selector:
app: apple1
ports:
- port: 5679 # Default port for image
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple.example.com.
external-dns.alpha.kubernetes.io/target: 10.10.10.3,10.10.10.25
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service
port:
number: 5678
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress1
annotations:
ingress.kubernetes.io/rewrite-target: /
ingress.kubernetes.io/scheme: internet-facing
external-dns.alpha.kubernetes.io/hostname: apple-banana.example.com.
external-dns.alpha.kubernetes.io/target: 10.10.10.3
spec:
rules:
- http:
paths:
- path: /apple
backend:
service:
name: example-service1
port:
number: 5679
```
- Then, create the deployment and service:
```console
$ kubectl create -f apple-banana-echo.yaml
$ kubectl create -f external-dns.yaml
```
- Depending on where you run your service from, it can take a few minutes for your cloud provider to create an external IP for the service.
- Please verify on the [UltraDNS UI](https://portal.ultradns.com/login), that the records have been created under the zone "example.com".
- Finally, you will need to clean up the deployment and service. Please verify on the UI afterwards that the records have been deleted from the zone "example.com":
```console
$ kubectl delete -f apple-banana-echo.yaml
$ kubectl delete -f external-dns.yaml``` | external-dns | UltraDNS This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using UltraDNS For this tutorial please make sure that you are using a version 0 7 2 of ExternalDNS Managing DNS with UltraDNS If you would like to read up on the UltraDNS service you can find additional details here Introduction to UltraDNS https docs ultradns com Before proceeding please create a new DNS Zone that you will create your records in for this tutorial process For the examples in this tutorial we will be using example com as our Zone Setting Up UltraDNS Credentials The following environment variables will be needed to run ExternalDNS with UltraDNS ULTRADNS USERNAME ULTRADNS PASSWORD ULTRADNS BASEURL ULTRADNS ACCOUNTNAME optional variable Deploying ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with Then apply one of the following manifests file to deploy ExternalDNS Note We are assuming the zone is already present within UltraDNS Note While creating CNAMES as target endpoints the txt prefix option is mandatory Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress ingress is also possible domain filter example com Recommended We recommend to use this filter as it minimize the time to propagate changes as there are less number of zones to look into provider ultradns txt prefix txt env name ULTRADNS USERNAME value name ULTRADNS PASSWORD The password is required to be BASE64 encrypted value name ULTRADNS BASEURL value https api ultradns com name ULTRADNS ACCOUNTNAME value Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service source ingress domain filter example com Recommended We recommend to use this filter as it minimize the time to propagate changes as there are less number of zones to look into provider ultradns txt prefix txt env name ULTRADNS USERNAME value name ULTRADNS PASSWORD The password is required to be BASE64 encrypted value name ULTRADNS BASEURL value https api ultradns com name ULTRADNS ACCOUNTNAME value Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname my app example com spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Please note the annotation on the service Use the same hostname as the UltraDNS zone created above ExternalDNS uses this annotation to determine what services should be registered with DNS Removing the annotation will cause ExternalDNS to remove the corresponding DNS records Creating the Deployment and Service console kubectl create f nginx yaml kubectl create f external dns yaml Depending on where you run your service from it can take a few minutes for your cloud provider to create an external IP for the service Once the service has an external IP assigned ExternalDNS will notice the new service IP address and will synchronize the UltraDNS records Verifying UltraDNS Records Please verify on the UltraDNS UI https portal ultradns com login that the records are created under the zone example com For more information on UltraDNS UI refer to https docs ultradns com Content MSP User Guide Content User 20Guides MSP User Guide Navigation Moving 20Around 20the 20UI htm Toc2780722 Select the zone that was created above or select the appropriate zone if a different zone was used The external IP address will be displayed as a CNAME record for your zone Cleaning Up the Deployment and Service Now that we have verified that ExternalDNS will automatically manage your UltraDNS records you can delete example zones that you created in this tutorial kubectl delete service f nginx yaml kubectl delete service f externaldns yaml Examples to Manage your Records Creating Multiple A Records Target First you want to create a service file called apple banana echo yaml yaml kind Pod apiVersion v1 metadata name example app labels app apple spec containers name example app image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service spec selector app apple ports port 5678 Default port for image Then create service file called expose apple banana app yaml to expose the services For more information to deploy ingress controller refer to https kubernetes github io ingress nginx deploy yaml apiVersion networking k8s io v1 kind Ingress metadata name example ingress annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple example com external dns alpha kubernetes io target 10 10 10 1 10 10 10 23 spec rules http paths path apple pathType Prefix backend service name example service port number 5678 Then create the deployment and service console kubectl create f apple banana echo yaml kubectl create f expose apple banana app yaml kubectl create f external dns yaml Depending on where you run your service from it can take a few minutes for your cloud provider to create an external IP for the service Please verify on the UltraDNS UI https portal ultradns com login that the records have been created under the zone example com Finally you will need to clean up the deployment and service Please verify on the UI afterwards that the records have been deleted from the zone example com console kubectl delete f apple banana echo yaml kubectl delete f expose apple banana app yaml kubectl delete f external dns yaml Creating CNAME Record Please note that prior to deploying the external dns service you will need to add the option txt prefix txt into external dns yaml If this not provided your records will not be created First create a service file called apple banana echo yaml Config File Example kubernetes cluster is on premise not on cloud yaml kind Pod apiVersion v1 metadata name example app labels app apple spec containers name example app image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service spec selector app apple ports port 5678 Default port for image apiVersion networking k8s io v1 kind Ingress metadata name example ingress annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple example com external dns alpha kubernetes io target apple cname com spec rules http paths path apple backend service name example service port number 5678 Config File Example Kubernetes cluster service from different cloud vendors yaml kind Pod apiVersion v1 metadata name example app labels app apple spec containers name example app image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service annotations external dns alpha kubernetes io hostname my app example com spec selector app apple type LoadBalancer ports protocol TCP port 5678 targetPort 5678 Then create the deployment and service console kubectl create f apple banana echo yaml kubectl create f external dns yaml Depending on where you run your service from it can take a few minutes for your cloud provider to create an external IP for the service Please verify on the UltraDNS UI https portal ultradns com login that the records have been created under the zone example com Finally you will need to clean up the deployment and service Please verify on the UI afterwards that the records have been deleted from the zone example com console kubectl delete f apple banana echo yaml kubectl delete f external dns yaml Creating Multiple Types Of Records Please note that prior to deploying the external dns service you will need to add the option txt prefix txt into external dns yaml Since you will also be created a CNAME record If this not provided your records will not be created First create a service file called apple banana echo yaml Config File Example kubernetes cluster is on premise not on cloud yaml kind Pod apiVersion v1 metadata name example app labels app apple spec containers name example app image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service spec selector app apple ports port 5678 Default port for image kind Pod apiVersion v1 metadata name example app1 labels app apple1 spec containers name example app1 image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service1 spec selector app apple1 ports port 5679 Default port for image kind Pod apiVersion v1 metadata name example app2 labels app apple2 spec containers name example app2 image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service2 spec selector app apple2 ports port 5680 Default port for image apiVersion networking k8s io v1 kind Ingress metadata name example ingress annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple example com external dns alpha kubernetes io target apple cname com spec rules http paths path apple backend service name example service port number 5678 apiVersion networking k8s io v1 kind Ingress metadata name example ingress1 annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple banana example com external dns alpha kubernetes io target 10 10 10 3 spec rules http paths path apple backend service name example service1 port number 5679 apiVersion networking k8s io v1 kind Ingress metadata name example ingress2 annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname banana example com external dns alpha kubernetes io target 10 10 10 3 10 10 10 20 spec rules http paths path apple backend service name example service2 port number 5680 Config File Example Kubernetes cluster service from different cloud vendors yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname my app example com spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 kind Pod apiVersion v1 metadata name example app labels app apple spec containers name example app image hashicorp http echo args text apple kind Service apiVersion v1 metadata name example service spec selector app apple ports port 5678 Default port for image kind Pod apiVersion v1 metadata name example app1 labels app apple1 spec containers name example app1 image hashicorp http echo args text apple apiVersion extensions v1beta1 kind Service apiVersion v1 metadata name example service1 spec selector app apple1 ports port 5679 Default port for image apiVersion networking k8s io v1 kind Ingress metadata name example ingress annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple example com external dns alpha kubernetes io target 10 10 10 3 10 10 10 25 spec rules http paths path apple backend service name example service port number 5678 apiVersion networking k8s io v1 kind Ingress metadata name example ingress1 annotations ingress kubernetes io rewrite target ingress kubernetes io scheme internet facing external dns alpha kubernetes io hostname apple banana example com external dns alpha kubernetes io target 10 10 10 3 spec rules http paths path apple backend service name example service1 port number 5679 Then create the deployment and service console kubectl create f apple banana echo yaml kubectl create f external dns yaml Depending on where you run your service from it can take a few minutes for your cloud provider to create an external IP for the service Please verify on the UltraDNS UI https portal ultradns com login that the records have been created under the zone example com Finally you will need to clean up the deployment and service Please verify on the UI afterwards that the records have been deleted from the zone example com console kubectl delete f apple banana echo yaml kubectl delete f external dns yaml |
external-dns Headless Services We will go through a small example of deploying a simple Kafka with use of a headless service Use cases The main use cases that inspired this feature is the necessity for fixed addressable hostnames with services such as Kafka when trying to access them from outside the cluster In this scenario quite often only the Node IP addresses are actually routable and as in systems like Kafka more direct connections are preferable This tutorial describes how to setup ExternalDNS for usage in conjunction with a Headless service Setup | # Headless Services
This tutorial describes how to setup ExternalDNS for usage in conjunction with a Headless service.
## Use cases
The main use cases that inspired this feature is the necessity for fixed addressable hostnames with services, such as Kafka when trying to access them from outside the cluster. In this scenario, quite often, only the Node IP addresses are actually routable and as in systems like Kafka more direct connections are preferable.
## Setup
We will go through a small example of deploying a simple Kafka with use of a headless service.
### External DNS
A simple deploy could look like this:
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --log-level=debug
- --source=service
- --source=ingress
- --namespace=dev
- --domain-filter=example.org.
- --provider=aws
- --registry=txt
- --txt-owner-id=dev.example.org
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --log-level=debug
- --source=service
- --source=ingress
- --namespace=dev
- --domain-filter=example.org.
- --provider=aws
- --registry=txt
- --txt-owner-id=dev.example.org
```
### Kafka Stateful Set
First lets deploy a Kafka Stateful set, a simple example(a lot of stuff is missing) with a headless service called `ksvc`
```yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: kafka
spec:
serviceName: ksvc
replicas: 3
template:
metadata:
labels:
component: kafka
spec:
containers:
- name: kafka
image: confluent/kafka
ports:
- containerPort: 9092
hostPort: 9092
name: external
command:
- bash
- -c
- " export DOMAIN=$(hostname -d) && \
export KAFKA_BROKER_ID=$(echo $HOSTNAME|rev|cut -d '-' -f 1|rev) && \
export KAFKA_ZOOKEEPER_CONNECT=$ZK_CSVC_SERVICE_HOST:$ZK_CSVC_SERVICE_PORT && \
export KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://$HOSTNAME.example.org:9092 && \
/etc/confluent/docker/run"
volumeMounts:
- name: datadir
mountPath: /var/lib/kafka
volumeClaimTemplates:
- metadata:
name: datadir
annotations:
volume.beta.kubernetes.io/storage-class: st1
spec:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 500Gi
```
Very important here, is to set the `hostPort`(only works if the PodSecurityPolicy allows it)! and in case your app requires an actual hostname inside the container, unlike Kafka, which can advertise on another address, you have to set the hostname yourself.
### Headless Service
Now we need to define a headless service to use to expose the Kafka pods. There are generally two approaches to use expose the nodeport of a Headless service:
1. Add `--fqdn-template=.example.org`
2. Use a full annotation
If you go with #1, you just need to define the headless service, here is an example of the case #2:
```yaml
apiVersion: v1
kind: Service
metadata:
name: ksvc
annotations:
external-dns.alpha.kubernetes.io/hostname: example.org
spec:
ports:
- port: 9092
name: external
clusterIP: None
selector:
component: kafka
```
This will create 3 dns records:
```
kafka-0.example.org
kafka-1.example.org
kafka-2.example.org
```
If you set `--fqdn-template=.example.org` you can omit the annotation.
Generally it is a better approach to use `--fqdn-template=.example.org`, because then
you would get the service name inside the generated A records:
```
kafka-0.ksvc.example.org
kafka-1.ksvc.example.org
kafka-2.ksvc.example.org
```
#### Using pods' HostIPs as targets
Add the following annotation to your `Service`:
```yaml
external-dns.alpha.kubernetes.io/endpoints-type: HostIP
```
external-dns will now publish the value of the `.status.hostIP` field of the pods backing your `Service`.
#### Using node external IPs as targets
Add the following annotation to your `Service`:
```yaml
external-dns.alpha.kubernetes.io/endpoints-type: NodeExternalIP
```
external-dns will now publish the node external IP (`.status.addresses` entries of with `type: NodeExternalIP`) of the nodes on which the pods backing your `Service` are running.
#### Using pod annotations to specify target IPs
Add the following annotation to the **pods** backing your `Service`:
```yaml
external-dns.alpha.kubernetes.io/target: "1.2.3.4"
```
external-dns will publish the IP specified in the annotation of each pod instead of using the podIP advertised by Kubernetes.
This can be useful e.g. if you are NATing public IPs onto your pod IPs and want to publish these in DNS. | external-dns | Headless Services This tutorial describes how to setup ExternalDNS for usage in conjunction with a Headless service Use cases The main use cases that inspired this feature is the necessity for fixed addressable hostnames with services such as Kafka when trying to access them from outside the cluster In this scenario quite often only the Node IP addresses are actually routable and as in systems like Kafka more direct connections are preferable Setup We will go through a small example of deploying a simple Kafka with use of a headless service External DNS A simple deploy could look like this Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args log level debug source service source ingress namespace dev domain filter example org provider aws registry txt txt owner id dev example org Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args log level debug source service source ingress namespace dev domain filter example org provider aws registry txt txt owner id dev example org Kafka Stateful Set First lets deploy a Kafka Stateful set a simple example a lot of stuff is missing with a headless service called ksvc yaml apiVersion apps v1 kind StatefulSet metadata name kafka spec serviceName ksvc replicas 3 template metadata labels component kafka spec containers name kafka image confluent kafka ports containerPort 9092 hostPort 9092 name external command bash c export DOMAIN hostname d export KAFKA BROKER ID echo HOSTNAME rev cut d f 1 rev export KAFKA ZOOKEEPER CONNECT ZK CSVC SERVICE HOST ZK CSVC SERVICE PORT export KAFKA ADVERTISED LISTENERS PLAINTEXT HOSTNAME example org 9092 etc confluent docker run volumeMounts name datadir mountPath var lib kafka volumeClaimTemplates metadata name datadir annotations volume beta kubernetes io storage class st1 spec accessModes ReadWriteOnce resources requests storage 500Gi Very important here is to set the hostPort only works if the PodSecurityPolicy allows it and in case your app requires an actual hostname inside the container unlike Kafka which can advertise on another address you have to set the hostname yourself Headless Service Now we need to define a headless service to use to expose the Kafka pods There are generally two approaches to use expose the nodeport of a Headless service 1 Add fqdn template example org 2 Use a full annotation If you go with 1 you just need to define the headless service here is an example of the case 2 yaml apiVersion v1 kind Service metadata name ksvc annotations external dns alpha kubernetes io hostname example org spec ports port 9092 name external clusterIP None selector component kafka This will create 3 dns records kafka 0 example org kafka 1 example org kafka 2 example org If you set fqdn template example org you can omit the annotation Generally it is a better approach to use fqdn template example org because then you would get the service name inside the generated A records kafka 0 ksvc example org kafka 1 ksvc example org kafka 2 ksvc example org Using pods HostIPs as targets Add the following annotation to your Service yaml external dns alpha kubernetes io endpoints type HostIP external dns will now publish the value of the status hostIP field of the pods backing your Service Using node external IPs as targets Add the following annotation to your Service yaml external dns alpha kubernetes io endpoints type NodeExternalIP external dns will now publish the node external IP status addresses entries of with type NodeExternalIP of the nodes on which the pods backing your Service are running Using pod annotations to specify target IPs Add the following annotation to the pods backing your Service yaml external dns alpha kubernetes io target 1 2 3 4 external dns will publish the IP specified in the annotation of each pod instead of using the podIP advertised by Kubernetes This can be useful e g if you are NATing public IPs onto your pod IPs and want to publish these in DNS |
external-dns Exoscale provider support was added via thus you need to use external dns v0 5 5 Exoscale and are configured correctly It does not add remove or configure new zones in anyway The Exoscale provider expects that your Exoscale zones you wish to add records to already exists To do this please refer to the Prerequisites | # Exoscale
## Prerequisites
Exoscale provider support was added via [this PR](https://github.com/kubernetes-sigs/external-dns/pull/625), thus you need to use external-dns v0.5.5.
The Exoscale provider expects that your Exoscale zones, you wish to add records to, already exists
and are configured correctly. It does not add, remove or configure new zones in anyway.
To do this please refer to the [Exoscale DNS documentation](https://community.exoscale.com/documentation/dns/).
Additionally you will have to provide the Exoscale...:
* API Key
* API Secret
* Elastic IP address, to access the workers
## Deployment
Deploying external DNS for Exoscale is actually nearly identical to deploying
it for other providers. This is what a sample `deployment.yaml` looks like:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
# Only use if you're also using RBAC
# serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=ingress # or service or both
- --provider=exoscale
- --domain-filter=
- --policy=sync # if you want DNS entries to get deleted as well
- --txt-owner-id=
- --exoscale-apikey=
- --exoscale-apisecret=
# - --exoscale-apizone=
# - --exoscale-apienv=
```
Optional arguments `--exoscale-apizone` and `--exoscale-apienv` define [Exoscale API Zone](https://community.exoscale.com/documentation/platform/exoscale-datacenter-zones/)
(default `ch-gva-2`) and Exoscale API environment (default `api`, can be used to target non-production API server) respectively.
## RBAC
If your cluster is RBAC enabled, you also need to setup the following, before you can run external-dns:
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
```
## Testing and Verification
**Important!**: Remember to change `example.com` with your own domain throughout the following text.
Spin up a simple nginx HTTP server with the following spec (`kubectl apply -f`):
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/target:
spec:
ingressClassName: nginx
rules:
- host: via-ingress.example.com
http:
paths:
- backend:
service:
name: "nginx"
port:
number: 80
path: /
pathType: Prefix
---
apiVersion: v1
kind: Service
metadata:
name: nginx
spec:
ports:
- port: 80
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
```
**Important!**: Don't run dig, nslookup or similar immediately (until you've
confirmed the record exists). You'll get hit by [negative DNS caching](https://tools.ietf.org/html/rfc2308), which is hard to flush.
Wait about 30s-1m (interval for external-dns to kick in), then check Exoscales [portal](https://portal.exoscale.com/dns/example.com)... via-ingress.example.com should appear as a A and TXT record with your Elastic-IP-address. | external-dns | Exoscale Prerequisites Exoscale provider support was added via this PR https github com kubernetes sigs external dns pull 625 thus you need to use external dns v0 5 5 The Exoscale provider expects that your Exoscale zones you wish to add records to already exists and are configured correctly It does not add remove or configure new zones in anyway To do this please refer to the Exoscale DNS documentation https community exoscale com documentation dns Additionally you will have to provide the Exoscale API Key API Secret Elastic IP address to access the workers Deployment Deploying external DNS for Exoscale is actually nearly identical to deploying it for other providers This is what a sample deployment yaml looks like yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec Only use if you re also using RBAC serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source ingress or service or both provider exoscale domain filter policy sync if you want DNS entries to get deleted as well txt owner id exoscale apikey exoscale apisecret exoscale apizone exoscale apienv Optional arguments exoscale apizone and exoscale apienv define Exoscale API Zone https community exoscale com documentation platform exoscale datacenter zones default ch gva 2 and Exoscale API environment default api can be used to target non production API server respectively RBAC If your cluster is RBAC enabled you also need to setup the following before you can run external dns yaml apiVersion v1 kind ServiceAccount metadata name external dns namespace default apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default Testing and Verification Important Remember to change example com with your own domain throughout the following text Spin up a simple nginx HTTP server with the following spec kubectl apply f yaml apiVersion networking k8s io v1 kind Ingress metadata name nginx annotations external dns alpha kubernetes io target spec ingressClassName nginx rules host via ingress example com http paths backend service name nginx port number 80 path pathType Prefix apiVersion v1 kind Service metadata name nginx spec ports port 80 targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 Important Don t run dig nslookup or similar immediately until you ve confirmed the record exists You ll get hit by negative DNS caching https tools ietf org html rfc2308 which is hard to flush Wait about 30s 1m interval for external dns to kick in then check Exoscales portal https portal exoscale com dns example com via ingress example com should appear as a A and TXT record with your Elastic IP address |
external-dns IBM Cloud commands and assumes that the Kubernetes cluster was created via IBM Cloud Kubernetes Service and commands are being run on an orchestration node This tutorial uses for all This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using IBMCloud DNS Creating a IBMCloud DNS zone IBMCloud The IBMCloud provider for ExternalDNS will find suitable zones for domains it manages it will | # IBMCloud
This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using IBMCloud DNS.
This tutorial uses [IBMCloud CLI](https://cloud.ibm.com/docs/cli?topic=cli-getting-started) for all
IBM Cloud commands and assumes that the Kubernetes cluster was created via IBM Cloud Kubernetes Service and `kubectl` commands
are being run on an orchestration node.
## Creating a IBMCloud DNS zone
The IBMCloud provider for ExternalDNS will find suitable zones for domains it manages; it will
not automatically create zones.
For public zone, This tutorial assume that the [IBMCloud Internet Services](https://cloud.ibm.com/catalog/services/internet-services) was provisioned and the [cis cli plugin](https://cloud.ibm.com/docs/cis?topic=cis-cli-plugin-cis-cli) was installed with IBMCloud CLI
For private zone, This tutorial assume that the [IBMCloud DNS Services](https://cloud.ibm.com/catalog/services/dns-services) was provisioned and the [dns cli plugin](https://cloud.ibm.com/docs/dns-svcs?topic=dns-svcs-cli-plugin-dns-services-cli-commands) was installed with IBMCloud CLI
### Public Zone
For this tutorial, we create public zone named `example.com` on IBMCloud Internet Services instance `external-dns-public`
```
$ ibmcloud cis domain-add example.com -i external-dns-public
```
Follow [step](https://cloud.ibm.com/docs/cis?topic=cis-getting-started#configure-your-name-servers-with-the-registrar-or-existing-dns-provider) to active your zone
### Private Zone
For this tutorial, we create private zone named `example.com` on IBMCloud DNS Services instance `external-dns-private`
```
$ ibmcloud dns zone-create example.com -i external-dns-private
```
## Creating configuration file
The preferred way to inject the configuration file is by using a Kubernetes secret. The secret should contain an object named azure.json with content similar to this:
```
{
"apiKey": "1234567890abcdefghijklmnopqrstuvwxyz",
"instanceCrn": "crn:v1:bluemix:public:internet-svcs:global:a/bcf1865e99742d38d2d5fc3fb80a5496:b950da8a-5be6-4691-810e-36388c77b0a3::"
}
```
You can create or find the `apiKey` in your ibmcloud IAM --> [API Keys page](https://cloud.ibm.com/iam/apikeys)
You can find the `instanceCrn` in your service instance details
Now you can create a file named 'ibmcloud.json' with values gathered above and with the structure of the example above. Use this file to create a Kubernetes secret:
```
$ kubectl create secret generic ibmcloud-config-file --from-file=/local/path/to/ibmcloud.json
```
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster you want to test ExternalDNS with.
Then apply one of the following manifests file to deploy ExternalDNS.
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=ibmcloud
- --ibmcloud-proxied # (optional) enable the proxy feature of IBMCloud
volumeMounts:
- name: ibmcloud-config-file
mountPath: /etc/kubernetes
readOnly: true
volumes:
- name: ibmcloud-config-file
secret:
secretName: ibmcloud-config-file
items:
- key: externaldns-config.json
path: ibmcloud.json
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list", "watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=ibmcloud
- --ibmcloud-proxied # (optional) enable the proxy feature of IBMCloud public zone
volumeMounts:
- name: ibmcloud-config-file
mountPath: /etc/kubernetes
readOnly: true
volumes:
- name: ibmcloud-config-file
secret:
secretName: ibmcloud-config-file
items:
- key: externaldns-config.json
path: ibmcloud.json
```
## Deploying an Nginx Service
Create a service file called `nginx.yaml` with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: www.example.com
external-dns.alpha.kubernetes.io/ttl: "120" #optional
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
Note the annotation on the service; use the hostname as the IBMCloud DNS zone created above. The annotation may also be a subdomain
of the DNS zone (e.g. 'www.example.com').
By setting the TTL annotation on the service, you have to pass a valid TTL, which must be 120 or above.
This annotation is optional, if you won't set it, it will be 1 (automatic) which is 300.
ExternalDNS uses this annotation to determine what services should be registered with DNS. Removing the annotation
will cause ExternalDNS to remove the corresponding DNS records.
Create the deployment and service:
```
$ kubectl create -f nginx.yaml
```
Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service.
Once the service has an external IP assigned, ExternalDNS will notice the new service IP address and synchronize
the IBMCloud DNS records.
## Verifying IBMCloud DNS records
Run the following command to view the A records:
### Public Zone
```
# Get the domain ID with below command on IBMCloud Internet Services instance `external-dns-public`
$ ibmcloud cis domains -i external-dns-public
# Get the records with domain ID
$ ibmcloud cis dns-records DOMAIN_ID -i external-dns-public
```
### Private Zone
```
# Get the domain ID with below command on IBMCloud DNS Services instance `external-dns-private`
$ ibmcloud dns zones -i external-dns-private
# Get the records with domain ID
$ ibmcloud dns resource-records ZONE_ID -i external-dns-public
```
This should show the external IP address of the service as the A record for your domain.
## Cleanup
Now that we have verified that ExternalDNS will automatically manage IBMCloud DNS records, we can delete the tutorial's example:
```
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml
```
## Setting proxied records on public zone
Using the `external-dns.alpha.kubernetes.io/ibmcloud-proxied: "true"` annotation on your ingress or service, you can specify if the proxy feature of IBMCloud public DNS should be enabled for that record. This setting will override the global `--ibmcloud-proxied` setting.
## Active priviate zone with VPC allocated
By default, IBMCloud DNS Services don't active your private zone with new zone added, with externale DNS, you can use `external-dns.alpha.kubernetes.io/ibmcloud-vpc: "crn:v1:bluemix:public:is:us-south:a/bcf1865e99742d38d2d5fc3fb80a5496::vpc:r006-74353823-a60d-42e4-97c5-5e2551278435"` annotation on your ingress or service, it will active your private zone with in specific VPC for that record created in. this setting won't work if the private zone was active already.
Note: the annotaion value is the VPC CRN, every IBM Cloud service have a valid CRN. | external-dns | IBMCloud This tutorial describes how to setup ExternalDNS for usage within a Kubernetes cluster using IBMCloud DNS This tutorial uses IBMCloud CLI https cloud ibm com docs cli topic cli getting started for all IBM Cloud commands and assumes that the Kubernetes cluster was created via IBM Cloud Kubernetes Service and kubectl commands are being run on an orchestration node Creating a IBMCloud DNS zone The IBMCloud provider for ExternalDNS will find suitable zones for domains it manages it will not automatically create zones For public zone This tutorial assume that the IBMCloud Internet Services https cloud ibm com catalog services internet services was provisioned and the cis cli plugin https cloud ibm com docs cis topic cis cli plugin cis cli was installed with IBMCloud CLI For private zone This tutorial assume that the IBMCloud DNS Services https cloud ibm com catalog services dns services was provisioned and the dns cli plugin https cloud ibm com docs dns svcs topic dns svcs cli plugin dns services cli commands was installed with IBMCloud CLI Public Zone For this tutorial we create public zone named example com on IBMCloud Internet Services instance external dns public ibmcloud cis domain add example com i external dns public Follow step https cloud ibm com docs cis topic cis getting started configure your name servers with the registrar or existing dns provider to active your zone Private Zone For this tutorial we create private zone named example com on IBMCloud DNS Services instance external dns private ibmcloud dns zone create example com i external dns private Creating configuration file The preferred way to inject the configuration file is by using a Kubernetes secret The secret should contain an object named azure json with content similar to this apiKey 1234567890abcdefghijklmnopqrstuvwxyz instanceCrn crn v1 bluemix public internet svcs global a bcf1865e99742d38d2d5fc3fb80a5496 b950da8a 5be6 4691 810e 36388c77b0a3 You can create or find the apiKey in your ibmcloud IAM API Keys page https cloud ibm com iam apikeys You can find the instanceCrn in your service instance details Now you can create a file named ibmcloud json with values gathered above and with the structure of the example above Use this file to create a Kubernetes secret kubectl create secret generic ibmcloud config file from file local path to ibmcloud json Deploy ExternalDNS Connect your kubectl client to the cluster you want to test ExternalDNS with Then apply one of the following manifests file to deploy ExternalDNS Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider ibmcloud ibmcloud proxied optional enable the proxy feature of IBMCloud volumeMounts name ibmcloud config file mountPath etc kubernetes readOnly true volumes name ibmcloud config file secret secretName ibmcloud config file items key externaldns config json path ibmcloud json Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list watch apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider ibmcloud ibmcloud proxied optional enable the proxy feature of IBMCloud public zone volumeMounts name ibmcloud config file mountPath etc kubernetes readOnly true volumes name ibmcloud config file secret secretName ibmcloud config file items key externaldns config json path ibmcloud json Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname www example com external dns alpha kubernetes io ttl 120 optional spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 Note the annotation on the service use the hostname as the IBMCloud DNS zone created above The annotation may also be a subdomain of the DNS zone e g www example com By setting the TTL annotation on the service you have to pass a valid TTL which must be 120 or above This annotation is optional if you won t set it it will be 1 automatic which is 300 ExternalDNS uses this annotation to determine what services should be registered with DNS Removing the annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service kubectl create f nginx yaml Depending where you run your service it can take a little while for your cloud provider to create an external IP for the service Once the service has an external IP assigned ExternalDNS will notice the new service IP address and synchronize the IBMCloud DNS records Verifying IBMCloud DNS records Run the following command to view the A records Public Zone Get the domain ID with below command on IBMCloud Internet Services instance external dns public ibmcloud cis domains i external dns public Get the records with domain ID ibmcloud cis dns records DOMAIN ID i external dns public Private Zone Get the domain ID with below command on IBMCloud DNS Services instance external dns private ibmcloud dns zones i external dns private Get the records with domain ID ibmcloud dns resource records ZONE ID i external dns public This should show the external IP address of the service as the A record for your domain Cleanup Now that we have verified that ExternalDNS will automatically manage IBMCloud DNS records we can delete the tutorial s example kubectl delete f nginx yaml kubectl delete f externaldns yaml Setting proxied records on public zone Using the external dns alpha kubernetes io ibmcloud proxied true annotation on your ingress or service you can specify if the proxy feature of IBMCloud public DNS should be enabled for that record This setting will override the global ibmcloud proxied setting Active priviate zone with VPC allocated By default IBMCloud DNS Services don t active your private zone with new zone added with externale DNS you can use external dns alpha kubernetes io ibmcloud vpc crn v1 bluemix public is us south a bcf1865e99742d38d2d5fc3fb80a5496 vpc r006 74353823 a60d 42e4 97c5 5e2551278435 annotation on your ingress or service it will active your private zone with in specific VPC for that record created in this setting won t work if the private zone was active already Note the annotaion value is the VPC CRN every IBM Cloud service have a valid CRN |
external-dns GKE with nginx ingress controller This tutorial describes how to setup ExternalDNS for usage within a GKE cluster that doesn t make use of Google s but rather uses for that task gcloud config set project zalando external dns test Set up your environment console Setup your environment to work with Google Cloud Platform Fill in your values as needed e g target project | # GKE with nginx-ingress-controller
This tutorial describes how to setup ExternalDNS for usage within a GKE cluster that doesn't make use of Google's [default ingress controller](https://github.com/kubernetes/ingress-gce) but rather uses [nginx-ingress-controller](https://github.com/kubernetes/ingress-nginx) for that task.
## Set up your environment
Setup your environment to work with Google Cloud Platform. Fill in your values as needed, e.g. target project.
```console
$ gcloud config set project "zalando-external-dns-test"
$ gcloud config set compute/region "europe-west1"
$ gcloud config set compute/zone "europe-west1-d"
```
## GKE Node Scopes
The following instructions use instance scopes to provide ExternalDNS with the
permissions it needs to manage DNS records. Note that since these permissions
are associated with the instance, all pods in the cluster will also have these
permissions. As such, this approach is not suitable for anything but testing
environments.
Create a GKE cluster without using the default ingress controller.
```console
$ gcloud container clusters create "external-dns" \
--num-nodes 1 \
--scopes "https://www.googleapis.com/auth/ndev.clouddns.readwrite"
```
Create a DNS zone which will contain the managed DNS records.
```console
$ gcloud dns managed-zones create "external-dns-test-gcp-zalan-do" \
--dns-name "external-dns-test.gcp.zalan.do." \
--description "Automatically managed zone by ExternalDNS"
```
Make a note of the nameservers that were assigned to your new zone.
```console
$ gcloud dns record-sets list \
--zone "external-dns-test-gcp-zalan-do" \
--name "external-dns-test.gcp.zalan.do." \
--type NS
NAME TYPE TTL DATA
external-dns-test.gcp.zalan.do. NS 21600 ns-cloud-e1.googledomains.com.,ns-cloud-e2.googledomains.com.,ns-cloud-e3.googledomains.com.,ns-cloud-e4.googledomains.com.
```
In this case it's `ns-cloud-{e1-e4}.googledomains.com.` but your's could slightly differ, e.g. `{a1-a4}`, `{b1-b4}` etc.
Tell the parent zone where to find the DNS records for this zone by adding the corresponding NS records there. Assuming the parent zone is "gcp-zalan-do" and the domain is "gcp.zalan.do" and that it's also hosted at Google we would do the following.
```console
$ gcloud dns record-sets transaction start --zone "gcp-zalan-do"
$ gcloud dns record-sets transaction add ns-cloud-e{1..4}.googledomains.com. \
--name "external-dns-test.gcp.zalan.do." --ttl 300 --type NS --zone "gcp-zalan-do"
$ gcloud dns record-sets transaction execute --zone "gcp-zalan-do"
```
Connect your `kubectl` client to the cluster you just created and bind your GCP
user to the cluster admin role in Kubernetes.
```console
$ gcloud container clusters get-credentials "external-dns"
$ kubectl create clusterrolebinding cluster-admin-me \
--clusterrole=cluster-admin --user="$(gcloud config get-value account)"
```
### Deploy the nginx ingress controller
First, you need to deploy the nginx-based ingress controller. It can be deployed in at least two modes: Leveraging a Layer 4 load balancer in front of the nginx proxies or directly targeting pods with hostPorts on your worker nodes. ExternalDNS doesn't really care and supports both modes.
#### Default Backend
The nginx controller uses a default backend that it serves when no Ingress rule matches. This is a separate Service that can be picked by you. We'll use the default backend that's used by other ingress controllers for that matter. Apply the following manifests to your cluster to deploy the default backend.
```yaml
apiVersion: v1
kind: Service
metadata:
name: default-http-backend
spec:
ports:
- port: 80
targetPort: 8080
selector:
app: default-http-backend
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: default-http-backend
spec:
selector:
matchLabels:
app: default-http-backend
template:
metadata:
labels:
app: default-http-backend
spec:
containers:
- name: default-http-backend
image: gcr.io/google_containers/defaultbackend:1.3
```
#### Without a separate TCP load balancer
By default, the controller will update your Ingress objects with the public IPs of the nodes running your nginx controller instances. You should run multiple instances in case of pod or node failure. The controller will do leader election and will put multiple IPs as targets in your Ingress objects in that case. It could also make sense to run it as a DaemonSet. However, we'll just run a single replica. You have to open the respective ports on all of your worker nodes to allow nginx to receive traffic.
```console
$ gcloud compute firewall-rules create "allow-http" --allow tcp:80 --source-ranges "0.0.0.0/0" --target-tags "gke-external-dns-9488ba14-node"
$ gcloud compute firewall-rules create "allow-https" --allow tcp:443 --source-ranges "0.0.0.0/0" --target-tags "gke-external-dns-9488ba14-node"
```
Change `--target-tags` to the corresponding tags of your nodes. You can find them by describing your instances or by looking at the default firewall rules created by GKE for your cluster.
Apply the following manifests to your cluster to deploy the nginx-based ingress controller. Note, how it receives a reference to the default backend's Service and that it listens on hostPorts. (You may have to use `hostNetwork: true` as well.)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-ingress-controller
spec:
selector:
matchLabels:
app: nginx-ingress-controller
template:
metadata:
labels:
app: nginx-ingress-controller
spec:
containers:
- name: nginx-ingress-controller
image: gcr.io/google_containers/nginx-ingress-controller:0.9.0-beta.3
args:
- /nginx-ingress-controller
- --default-backend-service=default/default-http-backend
env:
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
ports:
- containerPort: 80
hostPort: 80
- containerPort: 443
hostPort: 443
```
#### With a separate TCP load balancer
However, you can also have the ingress controller proxied by a Kubernetes Service. This will instruct the controller to populate this Service's external IP as the external IP of the Ingress. This exposes the nginx proxies via a Layer 4 load balancer (`type=LoadBalancer`) which is more reliable than the other method. With that approach, you can run as many nginx proxy instances on your cluster as you like or have them autoscaled. This is the preferred way of running the nginx controller.
Apply the following manifests to your cluster. Note, how the controller is receiving an additional flag telling it which Service it should treat as its public endpoint and how it doesn't need hostPorts anymore.
Apply the following manifests to run the controller in this mode.
```yaml
apiVersion: v1
kind: Service
metadata:
name: nginx-ingress-controller
spec:
type: LoadBalancer
ports:
- name: http
port: 80
targetPort: 80
- name: https
port: 443
targetPort: 443
selector:
app: nginx-ingress-controller
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-ingress-controller
spec:
selector:
matchLabels:
app: nginx-ingress-controller
template:
metadata:
labels:
app: nginx-ingress-controller
spec:
containers:
- name: nginx-ingress-controller
image: gcr.io/google_containers/nginx-ingress-controller:0.9.0-beta.3
args:
- /nginx-ingress-controller
- --default-backend-service=default/default-http-backend
- --publish-service=default/nginx-ingress-controller
env:
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
ports:
- containerPort: 80
- containerPort: 443
```
### Deploy ExternalDNS
Apply the following manifest file to deploy ExternalDNS.
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=ingress
- --domain-filter=external-dns-test.gcp.zalan.do
- --provider=google
- --google-project=zalando-external-dns-test
- --registry=txt
- --txt-owner-id=my-identifier
```
Use `--dry-run` if you want to be extra careful on the first run. Note, that you will not see any records created when you are running in dry-run mode. You can, however, inspect the logs and watch what would have been done.
### Deploy a sample application
Create the following sample application to test that ExternalDNS works.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: nginx
spec:
ingressClassName: nginx
rules:
- host: via-ingress.external-dns-test.gcp.zalan.do
http:
paths:
- path: /
backend:
service:
name: nginx
port:
number: 80
pathType: Prefix
---
apiVersion: v1
kind: Service
metadata:
name: nginx
spec:
ports:
- port: 80
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
```
After roughly two minutes check that a corresponding DNS record for your Ingress was created.
```console
$ gcloud dns record-sets list \
--zone "external-dns-test-gcp-zalan-do" \
--name "via-ingress.external-dns-test.gcp.zalan.do." \
--type A
NAME TYPE TTL DATA
via-ingress.external-dns-test.gcp.zalan.do. A 300 35.187.1.246
```
Let's check that we can resolve this DNS name as well.
```console
dig +short @ns-cloud-e1.googledomains.com. via-ingress.external-dns-test.gcp.zalan.do.
35.187.1.246
```
Try with `curl` as well.
```console
$ curl via-ingress.external-dns-test.gcp.zalan.do
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
...
</head>
<body>
...
</body>
</html>
```
### Clean up
Make sure to delete all Service and Ingress objects before terminating the cluster so all load balancers and DNS entries get cleaned up correctly.
```console
$ kubectl delete service nginx-ingress-controller
$ kubectl delete ingress nginx
```
Give ExternalDNS some time to clean up the DNS records for you. Then delete the managed zone and cluster.
```console
$ gcloud dns managed-zones delete "external-dns-test-gcp-zalan-do"
$ gcloud container clusters delete "external-dns"
```
Also delete the NS records for your removed zone from the parent zone.
```console
$ gcloud dns record-sets transaction start --zone "gcp-zalan-do"
$ gcloud dns record-sets transaction remove ns-cloud-e{1..4}.googledomains.com. \
--name "external-dns-test.gcp.zalan.do." --ttl 300 --type NS --zone "gcp-zalan-do"
$ gcloud dns record-sets transaction execute --zone "gcp-zalan-do"
```
## GKE with Workload Identity
The following instructions use [GKE workload
identity](https://cloud.google.com/kubernetes-engine/docs/how-to/workload-identity)
to provide ExternalDNS with the permissions it needs to manage DNS records.
Workload identity is the Google-recommended way to provide GKE workloads access
to GCP APIs.
Create a GKE cluster with workload identity enabled and without the
HttpLoadBalancing add-on.
```console
$ gcloud container clusters create external-dns \
--workload-metadata-from-node=GKE_METADATA_SERVER \
--identity-namespace=zalando-external-dns-test.svc.id.goog \
--addons=HorizontalPodAutoscaling
```
Create a GCP service account (GSA) for ExternalDNS and save its email address.
```console
$ sa_name="Kubernetes external-dns"
$ gcloud iam service-accounts create sa-edns --display-name="$sa_name"
$ sa_email=$(gcloud iam service-accounts list --format='value(email)' \
--filter="displayName:$sa_name")
```
Bind the ExternalDNS GSA to the DNS admin role.
```console
$ gcloud projects add-iam-policy-binding zalando-external-dns-test \
--member="serviceAccount:$sa_email" --role=roles/dns.admin
```
Link the ExternalDNS GSA to the Kubernetes service account (KSA) that
external-dns will run under, i.e., the external-dns KSA in the external-dns
namespaces.
```console
$ gcloud iam service-accounts add-iam-policy-binding "$sa_email" \
--member="serviceAccount:zalando-external-dns-test.svc.id.goog[external-dns/external-dns]" \
--role=roles/iam.workloadIdentityUser
```
Create a DNS zone which will contain the managed DNS records.
```console
$ gcloud dns managed-zones create external-dns-test-gcp-zalan-do \
--dns-name=external-dns-test.gcp.zalan.do. \
--description="Automatically managed zone by ExternalDNS"
```
Make a note of the nameservers that were assigned to your new zone.
```console
$ gcloud dns record-sets list \
--zone=external-dns-test-gcp-zalan-do \
--name=external-dns-test.gcp.zalan.do. \
--type NS
NAME TYPE TTL DATA
external-dns-test.gcp.zalan.do. NS 21600 ns-cloud-e1.googledomains.com.,ns-cloud-e2.googledomains.com.,ns-cloud-e3.googledomains.com.,ns-cloud-e4.googledomains.com.
```
In this case it's `ns-cloud-{e1-e4}.googledomains.com.` but your's could
slightly differ, e.g. `{a1-a4}`, `{b1-b4}` etc.
Tell the parent zone where to find the DNS records for this zone by adding the
corresponding NS records there. Assuming the parent zone is "gcp-zalan-do" and
the domain is "gcp.zalan.do" and that it's also hosted at Google we would do the
following.
```console
$ gcloud dns record-sets transaction start --zone=gcp-zalan-do
$ gcloud dns record-sets transaction add ns-cloud-e{1..4}.googledomains.com. \
--name=external-dns-test.gcp.zalan.do. --ttl 300 --type NS --zone=gcp-zalan-do
$ gcloud dns record-sets transaction execute --zone=gcp-zalan-do
```
Connect your `kubectl` client to the cluster you just created and bind your GCP
user to the cluster admin role in Kubernetes.
```console
$ gcloud container clusters get-credentials external-dns
$ kubectl create clusterrolebinding cluster-admin-me \
--clusterrole=cluster-admin --user="$(gcloud config get-value account)"
```
### Deploy ingress-nginx
Follow the [ingress-nginx GKE installation
instructions](https://kubernetes.github.io/ingress-nginx/deploy/#gce-gke) to
deploy it to the cluster.
```console
$ kubectl apply -f \
https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v0.35.0/deploy/static/provider/cloud/deploy.yaml
```
### Deploy ExternalDNS
Apply the following manifest file to deploy external-dns.
```yaml
apiVersion: v1
kind: Namespace
metadata:
name: external-dns
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
namespace: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services", "endpoints", "pods"]
verbs: ["get", "watch", "list"]
- apiGroups: ["extensions", "networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get", "watch", "list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: external-dns
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
namespace: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- args:
- --source=ingress
- --domain-filter=external-dns-test.gcp.zalan.do
- --provider=google
- --google-project=zalando-external-dns-test
- --registry=txt
- --txt-owner-id=my-identifier
image: registry.k8s.io/external-dns/external-dns:v0.15.0
name: external-dns
securityContext:
fsGroup: 65534
runAsUser: 65534
serviceAccountName: external-dns
```
Then add the proper workload identity annotation to the cert-manager service
account.
```bash
$ kubectl annotate serviceaccount --namespace=external-dns external-dns \
"iam.gke.io/gcp-service-account=$sa_email"
```
### Deploy a sample application
Create the following sample application to test that ExternalDNS works.
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: nginx
spec:
ingressClassName: nginx
rules:
- host: via-ingress.external-dns-test.gcp.zalan.do
http:
paths:
- path: /
backend:
service:
name: nginx
port:
number: 80
pathType: Prefix
---
apiVersion: v1
kind: Service
metadata:
name: nginx
spec:
ports:
- port: 80
targetPort: 80
selector:
app: nginx
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
```
After roughly two minutes check that a corresponding DNS record for your ingress
was created.
```console
$ gcloud dns record-sets list \
--zone "external-dns-test-gcp-zalan-do" \
--name "via-ingress.external-dns-test.gcp.zalan.do." \
--type A
NAME TYPE TTL DATA
via-ingress.external-dns-test.gcp.zalan.do. A 300 35.187.1.246
```
Let's check that we can resolve this DNS name as well.
```console
$ dig +short @ns-cloud-e1.googledomains.com. via-ingress.external-dns-test.gcp.zalan.do.
35.187.1.246
```
Try with `curl` as well.
```console
$ curl via-ingress.external-dns-test.gcp.zalan.do
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
...
</head>
<body>
...
</body>
</html>
```
### Clean up
Make sure to delete all service and ingress objects before terminating the
cluster so all load balancers and DNS entries get cleaned up correctly.
```console
$ kubectl delete service --namespace=ingress-nginx ingress-nginx-controller
$ kubectl delete ingress nginx
```
Give ExternalDNS some time to clean up the DNS records for you. Then delete the
managed zone and cluster.
```console
$ gcloud dns managed-zones delete external-dns-test-gcp-zalan-do
$ gcloud container clusters delete external-dns
```
Also delete the NS records for your removed zone from the parent zone.
```console
$ gcloud dns record-sets transaction start --zone gcp-zalan-do
$ gcloud dns record-sets transaction remove ns-cloud-e{1..4}.googledomains.com. \
--name=external-dns-test.gcp.zalan.do. --ttl 300 --type NS --zone=gcp-zalan-do
$ gcloud dns record-sets transaction execute --zone=gcp-zalan-do
```
## User Demo How-To Blogs and Examples
* Run external-dns on GKE with workload identity. See [Kubernetes, ingress-nginx, cert-manager & external-dns](https://blog.atomist.com/kubernetes-ingress-nginx-cert-manager-external-dns/) | external-dns | GKE with nginx ingress controller This tutorial describes how to setup ExternalDNS for usage within a GKE cluster that doesn t make use of Google s default ingress controller https github com kubernetes ingress gce but rather uses nginx ingress controller https github com kubernetes ingress nginx for that task Set up your environment Setup your environment to work with Google Cloud Platform Fill in your values as needed e g target project console gcloud config set project zalando external dns test gcloud config set compute region europe west1 gcloud config set compute zone europe west1 d GKE Node Scopes The following instructions use instance scopes to provide ExternalDNS with the permissions it needs to manage DNS records Note that since these permissions are associated with the instance all pods in the cluster will also have these permissions As such this approach is not suitable for anything but testing environments Create a GKE cluster without using the default ingress controller console gcloud container clusters create external dns num nodes 1 scopes https www googleapis com auth ndev clouddns readwrite Create a DNS zone which will contain the managed DNS records console gcloud dns managed zones create external dns test gcp zalan do dns name external dns test gcp zalan do description Automatically managed zone by ExternalDNS Make a note of the nameservers that were assigned to your new zone console gcloud dns record sets list zone external dns test gcp zalan do name external dns test gcp zalan do type NS NAME TYPE TTL DATA external dns test gcp zalan do NS 21600 ns cloud e1 googledomains com ns cloud e2 googledomains com ns cloud e3 googledomains com ns cloud e4 googledomains com In this case it s ns cloud e1 e4 googledomains com but your s could slightly differ e g a1 a4 b1 b4 etc Tell the parent zone where to find the DNS records for this zone by adding the corresponding NS records there Assuming the parent zone is gcp zalan do and the domain is gcp zalan do and that it s also hosted at Google we would do the following console gcloud dns record sets transaction start zone gcp zalan do gcloud dns record sets transaction add ns cloud e 1 4 googledomains com name external dns test gcp zalan do ttl 300 type NS zone gcp zalan do gcloud dns record sets transaction execute zone gcp zalan do Connect your kubectl client to the cluster you just created and bind your GCP user to the cluster admin role in Kubernetes console gcloud container clusters get credentials external dns kubectl create clusterrolebinding cluster admin me clusterrole cluster admin user gcloud config get value account Deploy the nginx ingress controller First you need to deploy the nginx based ingress controller It can be deployed in at least two modes Leveraging a Layer 4 load balancer in front of the nginx proxies or directly targeting pods with hostPorts on your worker nodes ExternalDNS doesn t really care and supports both modes Default Backend The nginx controller uses a default backend that it serves when no Ingress rule matches This is a separate Service that can be picked by you We ll use the default backend that s used by other ingress controllers for that matter Apply the following manifests to your cluster to deploy the default backend yaml apiVersion v1 kind Service metadata name default http backend spec ports port 80 targetPort 8080 selector app default http backend apiVersion apps v1 kind Deployment metadata name default http backend spec selector matchLabels app default http backend template metadata labels app default http backend spec containers name default http backend image gcr io google containers defaultbackend 1 3 Without a separate TCP load balancer By default the controller will update your Ingress objects with the public IPs of the nodes running your nginx controller instances You should run multiple instances in case of pod or node failure The controller will do leader election and will put multiple IPs as targets in your Ingress objects in that case It could also make sense to run it as a DaemonSet However we ll just run a single replica You have to open the respective ports on all of your worker nodes to allow nginx to receive traffic console gcloud compute firewall rules create allow http allow tcp 80 source ranges 0 0 0 0 0 target tags gke external dns 9488ba14 node gcloud compute firewall rules create allow https allow tcp 443 source ranges 0 0 0 0 0 target tags gke external dns 9488ba14 node Change target tags to the corresponding tags of your nodes You can find them by describing your instances or by looking at the default firewall rules created by GKE for your cluster Apply the following manifests to your cluster to deploy the nginx based ingress controller Note how it receives a reference to the default backend s Service and that it listens on hostPorts You may have to use hostNetwork true as well yaml apiVersion apps v1 kind Deployment metadata name nginx ingress controller spec selector matchLabels app nginx ingress controller template metadata labels app nginx ingress controller spec containers name nginx ingress controller image gcr io google containers nginx ingress controller 0 9 0 beta 3 args nginx ingress controller default backend service default default http backend env name POD NAME valueFrom fieldRef fieldPath metadata name name POD NAMESPACE valueFrom fieldRef fieldPath metadata namespace ports containerPort 80 hostPort 80 containerPort 443 hostPort 443 With a separate TCP load balancer However you can also have the ingress controller proxied by a Kubernetes Service This will instruct the controller to populate this Service s external IP as the external IP of the Ingress This exposes the nginx proxies via a Layer 4 load balancer type LoadBalancer which is more reliable than the other method With that approach you can run as many nginx proxy instances on your cluster as you like or have them autoscaled This is the preferred way of running the nginx controller Apply the following manifests to your cluster Note how the controller is receiving an additional flag telling it which Service it should treat as its public endpoint and how it doesn t need hostPorts anymore Apply the following manifests to run the controller in this mode yaml apiVersion v1 kind Service metadata name nginx ingress controller spec type LoadBalancer ports name http port 80 targetPort 80 name https port 443 targetPort 443 selector app nginx ingress controller apiVersion apps v1 kind Deployment metadata name nginx ingress controller spec selector matchLabels app nginx ingress controller template metadata labels app nginx ingress controller spec containers name nginx ingress controller image gcr io google containers nginx ingress controller 0 9 0 beta 3 args nginx ingress controller default backend service default default http backend publish service default nginx ingress controller env name POD NAME valueFrom fieldRef fieldPath metadata name name POD NAMESPACE valueFrom fieldRef fieldPath metadata namespace ports containerPort 80 containerPort 443 Deploy ExternalDNS Apply the following manifest file to deploy ExternalDNS yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source ingress domain filter external dns test gcp zalan do provider google google project zalando external dns test registry txt txt owner id my identifier Use dry run if you want to be extra careful on the first run Note that you will not see any records created when you are running in dry run mode You can however inspect the logs and watch what would have been done Deploy a sample application Create the following sample application to test that ExternalDNS works yaml apiVersion networking k8s io v1 kind Ingress metadata name nginx spec ingressClassName nginx rules host via ingress external dns test gcp zalan do http paths path backend service name nginx port number 80 pathType Prefix apiVersion v1 kind Service metadata name nginx spec ports port 80 targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 After roughly two minutes check that a corresponding DNS record for your Ingress was created console gcloud dns record sets list zone external dns test gcp zalan do name via ingress external dns test gcp zalan do type A NAME TYPE TTL DATA via ingress external dns test gcp zalan do A 300 35 187 1 246 Let s check that we can resolve this DNS name as well console dig short ns cloud e1 googledomains com via ingress external dns test gcp zalan do 35 187 1 246 Try with curl as well console curl via ingress external dns test gcp zalan do DOCTYPE html html head title Welcome to nginx title head body body html Clean up Make sure to delete all Service and Ingress objects before terminating the cluster so all load balancers and DNS entries get cleaned up correctly console kubectl delete service nginx ingress controller kubectl delete ingress nginx Give ExternalDNS some time to clean up the DNS records for you Then delete the managed zone and cluster console gcloud dns managed zones delete external dns test gcp zalan do gcloud container clusters delete external dns Also delete the NS records for your removed zone from the parent zone console gcloud dns record sets transaction start zone gcp zalan do gcloud dns record sets transaction remove ns cloud e 1 4 googledomains com name external dns test gcp zalan do ttl 300 type NS zone gcp zalan do gcloud dns record sets transaction execute zone gcp zalan do GKE with Workload Identity The following instructions use GKE workload identity https cloud google com kubernetes engine docs how to workload identity to provide ExternalDNS with the permissions it needs to manage DNS records Workload identity is the Google recommended way to provide GKE workloads access to GCP APIs Create a GKE cluster with workload identity enabled and without the HttpLoadBalancing add on console gcloud container clusters create external dns workload metadata from node GKE METADATA SERVER identity namespace zalando external dns test svc id goog addons HorizontalPodAutoscaling Create a GCP service account GSA for ExternalDNS and save its email address console sa name Kubernetes external dns gcloud iam service accounts create sa edns display name sa name sa email gcloud iam service accounts list format value email filter displayName sa name Bind the ExternalDNS GSA to the DNS admin role console gcloud projects add iam policy binding zalando external dns test member serviceAccount sa email role roles dns admin Link the ExternalDNS GSA to the Kubernetes service account KSA that external dns will run under i e the external dns KSA in the external dns namespaces console gcloud iam service accounts add iam policy binding sa email member serviceAccount zalando external dns test svc id goog external dns external dns role roles iam workloadIdentityUser Create a DNS zone which will contain the managed DNS records console gcloud dns managed zones create external dns test gcp zalan do dns name external dns test gcp zalan do description Automatically managed zone by ExternalDNS Make a note of the nameservers that were assigned to your new zone console gcloud dns record sets list zone external dns test gcp zalan do name external dns test gcp zalan do type NS NAME TYPE TTL DATA external dns test gcp zalan do NS 21600 ns cloud e1 googledomains com ns cloud e2 googledomains com ns cloud e3 googledomains com ns cloud e4 googledomains com In this case it s ns cloud e1 e4 googledomains com but your s could slightly differ e g a1 a4 b1 b4 etc Tell the parent zone where to find the DNS records for this zone by adding the corresponding NS records there Assuming the parent zone is gcp zalan do and the domain is gcp zalan do and that it s also hosted at Google we would do the following console gcloud dns record sets transaction start zone gcp zalan do gcloud dns record sets transaction add ns cloud e 1 4 googledomains com name external dns test gcp zalan do ttl 300 type NS zone gcp zalan do gcloud dns record sets transaction execute zone gcp zalan do Connect your kubectl client to the cluster you just created and bind your GCP user to the cluster admin role in Kubernetes console gcloud container clusters get credentials external dns kubectl create clusterrolebinding cluster admin me clusterrole cluster admin user gcloud config get value account Deploy ingress nginx Follow the ingress nginx GKE installation instructions https kubernetes github io ingress nginx deploy gce gke to deploy it to the cluster console kubectl apply f https raw githubusercontent com kubernetes ingress nginx controller v0 35 0 deploy static provider cloud deploy yaml Deploy ExternalDNS Apply the following manifest file to deploy external dns yaml apiVersion v1 kind Namespace metadata name external dns apiVersion v1 kind ServiceAccount metadata name external dns namespace external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace external dns apiVersion apps v1 kind Deployment metadata name external dns namespace external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers args source ingress domain filter external dns test gcp zalan do provider google google project zalando external dns test registry txt txt owner id my identifier image registry k8s io external dns external dns v0 15 0 name external dns securityContext fsGroup 65534 runAsUser 65534 serviceAccountName external dns Then add the proper workload identity annotation to the cert manager service account bash kubectl annotate serviceaccount namespace external dns external dns iam gke io gcp service account sa email Deploy a sample application Create the following sample application to test that ExternalDNS works yaml apiVersion networking k8s io v1 kind Ingress metadata name nginx spec ingressClassName nginx rules host via ingress external dns test gcp zalan do http paths path backend service name nginx port number 80 pathType Prefix apiVersion v1 kind Service metadata name nginx spec ports port 80 targetPort 80 selector app nginx apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 After roughly two minutes check that a corresponding DNS record for your ingress was created console gcloud dns record sets list zone external dns test gcp zalan do name via ingress external dns test gcp zalan do type A NAME TYPE TTL DATA via ingress external dns test gcp zalan do A 300 35 187 1 246 Let s check that we can resolve this DNS name as well console dig short ns cloud e1 googledomains com via ingress external dns test gcp zalan do 35 187 1 246 Try with curl as well console curl via ingress external dns test gcp zalan do DOCTYPE html html head title Welcome to nginx title head body body html Clean up Make sure to delete all service and ingress objects before terminating the cluster so all load balancers and DNS entries get cleaned up correctly console kubectl delete service namespace ingress nginx ingress nginx controller kubectl delete ingress nginx Give ExternalDNS some time to clean up the DNS records for you Then delete the managed zone and cluster console gcloud dns managed zones delete external dns test gcp zalan do gcloud container clusters delete external dns Also delete the NS records for your removed zone from the parent zone console gcloud dns record sets transaction start zone gcp zalan do gcloud dns record sets transaction remove ns cloud e 1 4 googledomains com name external dns test gcp zalan do ttl 300 type NS zone gcp zalan do gcloud dns record sets transaction execute zone gcp zalan do User Demo How To Blogs and Examples Run external dns on GKE with workload identity See Kubernetes ingress nginx cert manager external dns https blog atomist com kubernetes ingress nginx cert manager external dns |
external-dns You may be interested with for installation guidelines AWS Route53 with same domain for public and private zones Specify in nginx ingress controller container args Deploy public nginx ingress controller This tutorial describes how to setup ExternalDNS using the same domain for public and private Route53 zones and It also outlines how to use to automatically issue SSL certificates from for both public and private records | # AWS Route53 with same domain for public and private zones
This tutorial describes how to setup ExternalDNS using the same domain for public and private Route53 zones and [nginx-ingress-controller](https://github.com/kubernetes/ingress-nginx). It also outlines how to use [cert-manager](https://github.com/jetstack/cert-manager) to automatically issue SSL certificates from [Let's Encrypt](https://letsencrypt.org/) for both public and private records.
## Deploy public nginx-ingress-controller
You may be interested with [GKE with nginx ingress](gke-nginx.md) for installation guidelines.
Specify `ingress-class` in nginx-ingress-controller container args:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: external-ingress
name: external-ingress-controller
spec:
replicas: 1
selector:
matchLabels:
app: external-ingress
template:
metadata:
labels:
app: external-ingress
spec:
containers:
- args:
- /nginx-ingress-controller
- --default-backend-service=$(POD_NAMESPACE)/default-http-backend
- --configmap=$(POD_NAMESPACE)/external-ingress-configuration
- --tcp-services-configmap=$(POD_NAMESPACE)/external-tcp-services
- --udp-services-configmap=$(POD_NAMESPACE)/external-udp-services
- --annotations-prefix=nginx.ingress.kubernetes.io
- --ingress-class=external-ingress
- --publish-service=$(POD_NAMESPACE)/external-ingress
env:
- name: POD_NAME
valueFrom:
fieldRef:
apiVersion: v1
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
apiVersion: v1
fieldPath: metadata.namespace
image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.11.0
livenessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
initialDelaySeconds: 10
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
name: external-ingress-controller
ports:
- containerPort: 80
name: http
protocol: TCP
- containerPort: 443
name: https
protocol: TCP
readinessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
```
Set `type: LoadBalancer` in your public nginx-ingress-controller Service definition.
```yaml
apiVersion: v1
kind: Service
metadata:
annotations:
service.beta.kubernetes.io/aws-load-balancer-connection-idle-timeout: "3600"
service.beta.kubernetes.io/aws-load-balancer-proxy-protocol: '*'
labels:
app: external-ingress
name: external-ingress
spec:
externalTrafficPolicy: Cluster
ports:
- name: http
port: 80
protocol: TCP
targetPort: http
- name: https
port: 443
protocol: TCP
targetPort: https
selector:
app: external-ingress
sessionAffinity: None
type: LoadBalancer
```
## Deploy private nginx-ingress-controller
Make sure to specify `ingress-class` in nginx-ingress-controller container args:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: internal-ingress
name: internal-ingress-controller
spec:
replicas: 1
selector:
matchLabels:
app: internal-ingress
template:
metadata:
labels:
app: internal-ingress
spec:
containers:
- args:
- /nginx-ingress-controller
- --default-backend-service=$(POD_NAMESPACE)/default-http-backend
- --configmap=$(POD_NAMESPACE)/internal-ingress-configuration
- --tcp-services-configmap=$(POD_NAMESPACE)/internal-tcp-services
- --udp-services-configmap=$(POD_NAMESPACE)/internal-udp-services
- --annotations-prefix=nginx.ingress.kubernetes.io
- --ingress-class=internal-ingress
- --publish-service=$(POD_NAMESPACE)/internal-ingress
env:
- name: POD_NAME
valueFrom:
fieldRef:
apiVersion: v1
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
apiVersion: v1
fieldPath: metadata.namespace
image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.11.0
livenessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
initialDelaySeconds: 10
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
name: internal-ingress-controller
ports:
- containerPort: 80
name: http
protocol: TCP
- containerPort: 443
name: https
protocol: TCP
readinessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
```
Set additional annotations in your private nginx-ingress-controller Service definition to create an internal load balancer.
```yaml
apiVersion: v1
kind: Service
metadata:
annotations:
service.beta.kubernetes.io/aws-load-balancer-connection-idle-timeout: "3600"
service.beta.kubernetes.io/aws-load-balancer-internal: 0.0.0.0/0
service.beta.kubernetes.io/aws-load-balancer-proxy-protocol: '*'
labels:
app: internal-ingress
name: internal-ingress
spec:
externalTrafficPolicy: Cluster
ports:
- name: http
port: 80
protocol: TCP
targetPort: http
- name: https
port: 443
protocol: TCP
targetPort: https
selector:
app: internal-ingress
sessionAffinity: None
type: LoadBalancer
```
## Deploy the public zone ExternalDNS
Consult [AWS ExternalDNS setup docs](aws.md) for installation guidelines.
In ExternalDNS containers args, make sure to specify `aws-zone-type` and `ingress-class`:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: external-dns-public
name: external-dns-public
namespace: kube-system
spec:
replicas: 1
selector:
matchLabels:
app: external-dns-public
strategy:
type: Recreate
template:
metadata:
labels:
app: external-dns-public
spec:
containers:
- args:
- --source=ingress
- --provider=aws
- --registry=txt
- --txt-owner-id=external-dns
- --ingress-class=external-ingress
- --aws-zone-type=public
image: registry.k8s.io/external-dns/external-dns:v0.15.0
name: external-dns-public
```
## Deploy the private zone ExternalDNS
Consult [AWS ExternalDNS setup docs](aws.md) for installation guidelines.
In ExternalDNS containers args, make sure to specify `aws-zone-type` and `ingress-class`:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: external-dns-private
name: external-dns-private
namespace: kube-system
spec:
replicas: 1
selector:
matchLabels:
app: external-dns-private
strategy:
type: Recreate
template:
metadata:
labels:
app: external-dns-private
spec:
containers:
- args:
- --source=ingress
- --provider=aws
- --registry=txt
- --txt-owner-id=dev.k8s.nexus
- --ingress-class=internal-ingress
- --aws-zone-type=private
image: registry.k8s.io/external-dns/external-dns:v0.15.0
name: external-dns-private
```
## Create application Service definitions
For this setup to work, you need to create two Ingress definitions for your application.
At first, create a public Ingress definition:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
labels:
app: app
name: app-public
spec:
ingressClassName: external-ingress
rules:
- host: app.domain.com
http:
paths:
- backend:
service:
name: app
port:
number: 80
pathType: Prefix
```
Then create a private Ingress definition:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
labels:
app: app
name: app-private
spec:
ingressClassName: internal-ingress
rules:
- host: app.domain.com
http:
paths:
- backend:
service:
name: app
port:
number: 80
pathType: Prefix
```
Additionally, you may leverage [cert-manager](https://github.com/jetstack/cert-manager) to automatically issue SSL certificates from [Let's Encrypt](https://letsencrypt.org/). To do that, request a certificate in public service definition:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
annotations:
certmanager.k8s.io/acme-challenge-type: "dns01"
certmanager.k8s.io/acme-dns01-provider: "route53"
certmanager.k8s.io/cluster-issuer: "letsencrypt-production"
kubernetes.io/tls-acme: "true"
labels:
app: app
name: app-public
spec:
ingressClassName: "external-ingress"
rules:
- host: app.domain.com
http:
paths:
- backend:
service:
name: app
port:
number: 80
pathType: Prefix
tls:
- hosts:
- app.domain.com
secretName: app-tls
```
And reuse the requested certificate in private Service definition:
```yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
labels:
app: app
name: app-private
spec:
ingressClassName: "internal-ingress"
rules:
- host: app.domain.com
http:
paths:
- backend:
service:
name: app
port:
number: 80
pathType: Prefix
tls:
- hosts:
- app.domain.com
secretName: app-tls
``` | external-dns | AWS Route53 with same domain for public and private zones This tutorial describes how to setup ExternalDNS using the same domain for public and private Route53 zones and nginx ingress controller https github com kubernetes ingress nginx It also outlines how to use cert manager https github com jetstack cert manager to automatically issue SSL certificates from Let s Encrypt https letsencrypt org for both public and private records Deploy public nginx ingress controller You may be interested with GKE with nginx ingress gke nginx md for installation guidelines Specify ingress class in nginx ingress controller container args yaml apiVersion apps v1 kind Deployment metadata labels app external ingress name external ingress controller spec replicas 1 selector matchLabels app external ingress template metadata labels app external ingress spec containers args nginx ingress controller default backend service POD NAMESPACE default http backend configmap POD NAMESPACE external ingress configuration tcp services configmap POD NAMESPACE external tcp services udp services configmap POD NAMESPACE external udp services annotations prefix nginx ingress kubernetes io ingress class external ingress publish service POD NAMESPACE external ingress env name POD NAME valueFrom fieldRef apiVersion v1 fieldPath metadata name name POD NAMESPACE valueFrom fieldRef apiVersion v1 fieldPath metadata namespace image quay io kubernetes ingress controller nginx ingress controller 0 11 0 livenessProbe failureThreshold 3 httpGet path healthz port 10254 scheme HTTP initialDelaySeconds 10 periodSeconds 10 successThreshold 1 timeoutSeconds 1 name external ingress controller ports containerPort 80 name http protocol TCP containerPort 443 name https protocol TCP readinessProbe failureThreshold 3 httpGet path healthz port 10254 scheme HTTP periodSeconds 10 successThreshold 1 timeoutSeconds 1 Set type LoadBalancer in your public nginx ingress controller Service definition yaml apiVersion v1 kind Service metadata annotations service beta kubernetes io aws load balancer connection idle timeout 3600 service beta kubernetes io aws load balancer proxy protocol labels app external ingress name external ingress spec externalTrafficPolicy Cluster ports name http port 80 protocol TCP targetPort http name https port 443 protocol TCP targetPort https selector app external ingress sessionAffinity None type LoadBalancer Deploy private nginx ingress controller Make sure to specify ingress class in nginx ingress controller container args yaml apiVersion apps v1 kind Deployment metadata labels app internal ingress name internal ingress controller spec replicas 1 selector matchLabels app internal ingress template metadata labels app internal ingress spec containers args nginx ingress controller default backend service POD NAMESPACE default http backend configmap POD NAMESPACE internal ingress configuration tcp services configmap POD NAMESPACE internal tcp services udp services configmap POD NAMESPACE internal udp services annotations prefix nginx ingress kubernetes io ingress class internal ingress publish service POD NAMESPACE internal ingress env name POD NAME valueFrom fieldRef apiVersion v1 fieldPath metadata name name POD NAMESPACE valueFrom fieldRef apiVersion v1 fieldPath metadata namespace image quay io kubernetes ingress controller nginx ingress controller 0 11 0 livenessProbe failureThreshold 3 httpGet path healthz port 10254 scheme HTTP initialDelaySeconds 10 periodSeconds 10 successThreshold 1 timeoutSeconds 1 name internal ingress controller ports containerPort 80 name http protocol TCP containerPort 443 name https protocol TCP readinessProbe failureThreshold 3 httpGet path healthz port 10254 scheme HTTP periodSeconds 10 successThreshold 1 timeoutSeconds 1 Set additional annotations in your private nginx ingress controller Service definition to create an internal load balancer yaml apiVersion v1 kind Service metadata annotations service beta kubernetes io aws load balancer connection idle timeout 3600 service beta kubernetes io aws load balancer internal 0 0 0 0 0 service beta kubernetes io aws load balancer proxy protocol labels app internal ingress name internal ingress spec externalTrafficPolicy Cluster ports name http port 80 protocol TCP targetPort http name https port 443 protocol TCP targetPort https selector app internal ingress sessionAffinity None type LoadBalancer Deploy the public zone ExternalDNS Consult AWS ExternalDNS setup docs aws md for installation guidelines In ExternalDNS containers args make sure to specify aws zone type and ingress class yaml apiVersion apps v1 kind Deployment metadata labels app external dns public name external dns public namespace kube system spec replicas 1 selector matchLabels app external dns public strategy type Recreate template metadata labels app external dns public spec containers args source ingress provider aws registry txt txt owner id external dns ingress class external ingress aws zone type public image registry k8s io external dns external dns v0 15 0 name external dns public Deploy the private zone ExternalDNS Consult AWS ExternalDNS setup docs aws md for installation guidelines In ExternalDNS containers args make sure to specify aws zone type and ingress class yaml apiVersion apps v1 kind Deployment metadata labels app external dns private name external dns private namespace kube system spec replicas 1 selector matchLabels app external dns private strategy type Recreate template metadata labels app external dns private spec containers args source ingress provider aws registry txt txt owner id dev k8s nexus ingress class internal ingress aws zone type private image registry k8s io external dns external dns v0 15 0 name external dns private Create application Service definitions For this setup to work you need to create two Ingress definitions for your application At first create a public Ingress definition yaml apiVersion networking k8s io v1 kind Ingress metadata labels app app name app public spec ingressClassName external ingress rules host app domain com http paths backend service name app port number 80 pathType Prefix Then create a private Ingress definition yaml apiVersion networking k8s io v1 kind Ingress metadata labels app app name app private spec ingressClassName internal ingress rules host app domain com http paths backend service name app port number 80 pathType Prefix Additionally you may leverage cert manager https github com jetstack cert manager to automatically issue SSL certificates from Let s Encrypt https letsencrypt org To do that request a certificate in public service definition yaml apiVersion networking k8s io v1 kind Ingress metadata annotations certmanager k8s io acme challenge type dns01 certmanager k8s io acme dns01 provider route53 certmanager k8s io cluster issuer letsencrypt production kubernetes io tls acme true labels app app name app public spec ingressClassName external ingress rules host app domain com http paths backend service name app port number 80 pathType Prefix tls hosts app domain com secretName app tls And reuse the requested certificate in private Service definition yaml apiVersion networking k8s io v1 kind Ingress metadata labels app app name app private spec ingressClassName internal ingress rules host app domain com http paths backend service name app port number 80 pathType Prefix tls hosts app domain com secretName app tls |
external-dns This tutorial describes how to setup ExternalDNS for use within a NS1 Make sure to use 0 5 version of ExternalDNS for this tutorial If you are new to NS1 we recommend you first read the following Kubernetes cluster using NS1 DNS Creating a zone with NS1 DNS | # NS1
This tutorial describes how to setup ExternalDNS for use within a
Kubernetes cluster using NS1 DNS.
Make sure to use **>=0.5** version of ExternalDNS for this tutorial.
## Creating a zone with NS1 DNS
If you are new to NS1, we recommend you first read the following
instructions for creating a zone.
[Creating a zone using the NS1
portal](https://ns1.com/knowledgebase/creating-a-zone)
[Creating a zone using the NS1
API](https://ns1.com/api#put-create-a-new-dns-zone)
## Creating NS1 Credentials
All NS1 products are API-first, meaning everything that can be done on
the portal---including managing zones and records, data sources and
feeds, and account settings and users---can be done via API.
The NS1 API is a standard REST API with JSON responses. The environment
var `NS1_APIKEY` will be needed to run ExternalDNS with NS1.
### To add or delete an API key
1. Log into the NS1 portal at [my.nsone.net](http://my.nsone.net).
2. Click your username in the upper-right corner, and navigate to **Account Settings** \> **Users & Teams**.
3. Navigate to the _API Keys_ tab, and click **Add Key**.
4. Enter the name of the application and modify permissions and settings as desired. Once complete, click **Create Key**. The new API key appears in the list.
Note: Set the permissions for your API keys just as you would for a user or team associated with your organization's NS1 account. For more information, refer to the article [Creating and Managing API Keys](https://help.ns1.com/hc/en-us/articles/360026140094-Creating-managing-users) in the NS1 Knowledge Base.
## Deploy ExternalDNS
Connect your `kubectl` client to the cluster with which you want to test ExternalDNS, and then apply one of the following manifest files for deployment:
Begin by creating a Kubernetes secret to securely store your NS1 API key. This key will enable ExternalDNS to authenticate with NS1:
```shell
kubectl create secret generic NS1_APIKEY --from-literal=NS1_API_KEY=YOUR_NS1_API_KEY
```
Ensure to replace YOUR_NS1_API_KEY with your actual NS1 API key.
Then apply one of the following manifests file to deploy ExternalDNS.
## Using Helm
Create a values.yaml file to configure ExternalDNS to use NS1 as the DNS provider. This file should include the necessary environment variables:
```shell
provider:
name: ns1
env:
- name: NS1_APIKEY
valueFrom:
secretKeyRef:
name: NS1_APIKEY
key: NS1_API_KEY
```
Finally, install the ExternalDNS chart with Helm using the configuration specified in your values.yaml file:
```shell
helm upgrade --install external-dns external-dns/external-dns --values values.yaml
```
### Manifest (for clusters without RBAC enabled)
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=ns1
env:
- name: NS1_APIKEY
valueFrom:
secretKeyRef:
name: NS1_APIKEY
key: NS1_API_KEY
```
### Manifest (for clusters with RBAC enabled)
```yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: external-dns
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: external-dns
rules:
- apiGroups: [""]
resources: ["services","endpoints","pods"]
verbs: ["get","watch","list"]
- apiGroups: ["extensions","networking.k8s.io"]
resources: ["ingresses"]
verbs: ["get","watch","list"]
- apiGroups: [""]
resources: ["nodes"]
verbs: ["list"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: external-dns-viewer
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: external-dns
subjects:
- kind: ServiceAccount
name: external-dns
namespace: default
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: external-dns
spec:
strategy:
type: Recreate
selector:
matchLabels:
app: external-dns
template:
metadata:
labels:
app: external-dns
spec:
serviceAccountName: external-dns
containers:
- name: external-dns
image: registry.k8s.io/external-dns/external-dns:v0.15.0
args:
- --source=service # ingress is also possible
- --domain-filter=example.com # (optional) limit to only example.com domains; change to match the zone created above.
- --provider=ns1
env:
- name: NS1_APIKEY
valueFrom:
secretKeyRef:
name: NS1_APIKEY
key: NS1_API_KEY
```
## Deploying an Nginx Service
Create a service file called 'nginx.yaml' with the following contents:
```yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx
name: nginx
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: nginx
annotations:
external-dns.alpha.kubernetes.io/hostname: example.com
external-dns.alpha.kubernetes.io/ttl: "120" #optional
spec:
selector:
app: nginx
type: LoadBalancer
ports:
- protocol: TCP
port: 80
targetPort: 80
```
**A note about annotations**
Verify that the annotation on the service uses the same hostname as the NS1 DNS zone created above. The annotation may also be a subdomain of the DNS zone (e.g. 'www.example.com').
The TTL annotation can be used to configure the TTL on DNS records managed by ExternalDNS and is optional. If this annotation is not set, the TTL on records managed by ExternalDNS will default to 10.
ExternalDNS uses the hostname annotation to determine which services should be registered with DNS. Removing the hostname annotation will cause ExternalDNS to remove the corresponding DNS records.
### Create the deployment and service
```
$ kubectl create -f nginx.yaml
```
Depending on where you run your service, it may take some time for your cloud provider to create an external IP for the service. Once an external IP is assigned, ExternalDNS detects the new service IP address and synchronizes the NS1 DNS records.
## Verifying NS1 DNS records
Use the NS1 portal or API to verify that the A record for your domain shows the external IP address of the services.
## Cleanup
Once you successfully configure and verify record management via ExternalDNS, you can delete the tutorial's example:
```
$ kubectl delete -f nginx.yaml
$ kubectl delete -f externaldns.yaml
``` | external-dns | NS1 This tutorial describes how to setup ExternalDNS for use within a Kubernetes cluster using NS1 DNS Make sure to use 0 5 version of ExternalDNS for this tutorial Creating a zone with NS1 DNS If you are new to NS1 we recommend you first read the following instructions for creating a zone Creating a zone using the NS1 portal https ns1 com knowledgebase creating a zone Creating a zone using the NS1 API https ns1 com api put create a new dns zone Creating NS1 Credentials All NS1 products are API first meaning everything that can be done on the portal including managing zones and records data sources and feeds and account settings and users can be done via API The NS1 API is a standard REST API with JSON responses The environment var NS1 APIKEY will be needed to run ExternalDNS with NS1 To add or delete an API key 1 Log into the NS1 portal at my nsone net http my nsone net 2 Click your username in the upper right corner and navigate to Account Settings Users Teams 3 Navigate to the API Keys tab and click Add Key 4 Enter the name of the application and modify permissions and settings as desired Once complete click Create Key The new API key appears in the list Note Set the permissions for your API keys just as you would for a user or team associated with your organization s NS1 account For more information refer to the article Creating and Managing API Keys https help ns1 com hc en us articles 360026140094 Creating managing users in the NS1 Knowledge Base Deploy ExternalDNS Connect your kubectl client to the cluster with which you want to test ExternalDNS and then apply one of the following manifest files for deployment Begin by creating a Kubernetes secret to securely store your NS1 API key This key will enable ExternalDNS to authenticate with NS1 shell kubectl create secret generic NS1 APIKEY from literal NS1 API KEY YOUR NS1 API KEY Ensure to replace YOUR NS1 API KEY with your actual NS1 API key Then apply one of the following manifests file to deploy ExternalDNS Using Helm Create a values yaml file to configure ExternalDNS to use NS1 as the DNS provider This file should include the necessary environment variables shell provider name ns1 env name NS1 APIKEY valueFrom secretKeyRef name NS1 APIKEY key NS1 API KEY Finally install the ExternalDNS chart with Helm using the configuration specified in your values yaml file shell helm upgrade install external dns external dns external dns values values yaml Manifest for clusters without RBAC enabled yaml apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider ns1 env name NS1 APIKEY valueFrom secretKeyRef name NS1 APIKEY key NS1 API KEY Manifest for clusters with RBAC enabled yaml apiVersion v1 kind ServiceAccount metadata name external dns apiVersion rbac authorization k8s io v1 kind ClusterRole metadata name external dns rules apiGroups resources services endpoints pods verbs get watch list apiGroups extensions networking k8s io resources ingresses verbs get watch list apiGroups resources nodes verbs list apiVersion rbac authorization k8s io v1 kind ClusterRoleBinding metadata name external dns viewer roleRef apiGroup rbac authorization k8s io kind ClusterRole name external dns subjects kind ServiceAccount name external dns namespace default apiVersion apps v1 kind Deployment metadata name external dns spec strategy type Recreate selector matchLabels app external dns template metadata labels app external dns spec serviceAccountName external dns containers name external dns image registry k8s io external dns external dns v0 15 0 args source service ingress is also possible domain filter example com optional limit to only example com domains change to match the zone created above provider ns1 env name NS1 APIKEY valueFrom secretKeyRef name NS1 APIKEY key NS1 API KEY Deploying an Nginx Service Create a service file called nginx yaml with the following contents yaml apiVersion apps v1 kind Deployment metadata name nginx spec selector matchLabels app nginx template metadata labels app nginx spec containers image nginx name nginx ports containerPort 80 apiVersion v1 kind Service metadata name nginx annotations external dns alpha kubernetes io hostname example com external dns alpha kubernetes io ttl 120 optional spec selector app nginx type LoadBalancer ports protocol TCP port 80 targetPort 80 A note about annotations Verify that the annotation on the service uses the same hostname as the NS1 DNS zone created above The annotation may also be a subdomain of the DNS zone e g www example com The TTL annotation can be used to configure the TTL on DNS records managed by ExternalDNS and is optional If this annotation is not set the TTL on records managed by ExternalDNS will default to 10 ExternalDNS uses the hostname annotation to determine which services should be registered with DNS Removing the hostname annotation will cause ExternalDNS to remove the corresponding DNS records Create the deployment and service kubectl create f nginx yaml Depending on where you run your service it may take some time for your cloud provider to create an external IP for the service Once an external IP is assigned ExternalDNS detects the new service IP address and synchronizes the NS1 DNS records Verifying NS1 DNS records Use the NS1 portal or API to verify that the A record for your domain shows the external IP address of the services Cleanup Once you successfully configure and verify record management via ExternalDNS you can delete the tutorial s example kubectl delete f nginx yaml kubectl delete f externaldns yaml |