ClickStack использует OTel collector (OpenTelemetry) для сбора логов, метрик и событий Kubernetes из кластеров Kubernetes и их последующей пересылки в ClickStack. Мы поддерживаем нативный формат логов OTel и не требуем дополнительной вендор-специфичной конфигурации.
В этом руководстве рассматривается интеграция следующих компонентов:
- Логи
- Инфраструктурные метрики
Примечание
Чтобы передавать метрики уровня приложения или APM/трейсы, вам также необходимо добавить в своё приложение соответствующую языковую интеграцию.
В данном руководстве предполагается, что вы развернули ClickStack OTel collector в качестве шлюза (gateway), защищённый ключом API для приёма данных API key.
Создание файлов конфигурации Helm-чарта OTel
Чтобы собирать логи и метрики как с каждого узла, так и с кластера в целом, нужно развернуть два отдельных коллектора OpenTelemetry. Один будет развернут как ДемонСет для сбора логов и метрик с каждого узла, а другой — как Развертывание для сбора логов и метрик с самого кластера.
Создание секрета с ключом API
Создайте новый секрет Kubernetes с ключом API для приёма данных API key из HyperDX. Он будет использоваться компонентами, которые будут установлены далее, для безопасной ингестии в ваш OTel collector ClickStack:
kubectl create secret generic hyperdx-secret \
--from-literal=HYPERDX_API_KEY=<ingestion_api_key> \
Кроме того, создайте ConfigMap с указанием адреса вашего ClickStack OTel collector:
kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=<OTEL_COLLECTOR_ENDPOINT>
# e.g. kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=http://my-hyperdx-hdx-oss-v2-otel-collector:4318
Создание конфигурации ДемонСета
ДемонСет будет собирать логи и метрики с каждого узла в кластере, но при этом не будет собирать события Kubernetes или метрики всего кластера.
Загрузите манифест ДемонСета:
curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_daemonset.yaml
k8s_daemonset.yaml
# daemonset.yaml
mode: daemonset
# Необходимо для использования метрик использования CPU/памяти в kubeletstats
clusterRole:
create: true
rules:
- apiGroups:
- ''
resources:
- nodes/proxy
verbs:
- get
presets:
logsCollection:
enabled: true
hostMetrics:
enabled: true
# Настраивает процессор Kubernetes для добавления Kubernetes-метаданных.
# Добавляет процессор k8sattributes во все конвейеры и добавляет необходимые правила в ClusterRole.
# Подробнее: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-attributes-processor
kubernetesAttributes:
enabled: true
# При включении процессор будет извлекать все метки связанного пода и добавлять их как атрибуты ресурса.
# Точное имя метки будет ключом.
extractAllPodLabels: true
# При включении процессор будет извлекать все аннотации связанного пода и добавлять их как атрибуты ресурса.
# Точное имя аннотации будет ключом.
extractAllPodAnnotations: true
# Настраивает коллектор для сбора метрик узлов, подов и контейнеров с API-сервера Кубелета.
# Добавляет приёмник kubeletstats в конвейер метрик и добавляет необходимые правила в ClusterRole.
# Подробнее: https://opentelemetry.io/docs/kubernetes/collector/components/#kubeletstats-receiver
kubeletMetrics:
enabled: true
extraEnvs:
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
receivers:
# Настраивает дополнительные метрики Кубелета
kubeletstats:
collection_interval: 20s
auth_type: 'serviceAccount'
endpoint: '${env:K8S_NODE_NAME}:10250'
insecure_skip_verify: true
metrics:
k8s.pod.cpu_limit_utilization:
enabled: true
k8s.pod.cpu_request_utilization:
enabled: true
k8s.pod.memory_limit_utilization:
enabled: true
k8s.pod.memory_request_utilization:
enabled: true
k8s.pod.uptime:
enabled: true
k8s.node.uptime:
enabled: true
k8s.container.cpu_limit_utilization:
enabled: true
k8s.container.cpu_request_utilization:
enabled: true
k8s.container.memory_limit_utilization:
enabled: true
k8s.container.memory_request_utilization:
enabled: true
container.uptime:
enabled: true
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
compression: gzip
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
k8s_daemonset.yaml
# daemonset.yaml
mode: daemonset
# Необходимо для использования метрик загрузки CPU/памяти из kubeletstats
clusterRole:
create: true
rules:
- apiGroups:
- ''
resources:
- nodes/proxy
verbs:
- get
presets:
logsCollection:
enabled: true
hostMetrics:
enabled: true
# Настраивает Kubernetes Processor для добавления метаданных Kubernetes.
# Добавляет процессор k8sattributes во все конвейеры и добавляет необходимые правила в ClusterRole.
# Подробнее: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-attributes-processor
kubernetesAttributes:
enabled: true
# Если включено, процессор будет извлекать все метки для связанного пода и добавлять их как атрибуты ресурса.
# Точное имя метки будет ключом.
extractAllPodLabels: true
# Если включено, процессор будет извлекать все аннотации для связанного пода и добавлять их как атрибуты ресурса.
# Точное имя аннотации будет ключом.
extractAllPodAnnotations: true
# Настраивает коллектор для сбора метрик узлов, подов и контейнеров с API-сервера на Кубелете.
# Добавляет приемник kubeletstats в конвейер метрик и добавляет необходимые правила в ClusterRole.
# Подробнее: https://opentelemetry.io/docs/kubernetes/collector/components/#kubeletstats-receiver
kubeletMetrics:
enabled: true
extraEnvs:
- name: HYPERDX_API_KEY
valueFrom:
secretKeyRef:
name: hyperdx-secret
key: HYPERDX_API_KEY
optional: true
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
receivers:
# Настраивает дополнительные метрики Кубелета
kubeletstats:
collection_interval: 20s
auth_type: 'serviceAccount'
endpoint: '${env:K8S_NODE_NAME}:10250'
insecure_skip_verify: true
metrics:
k8s.pod.cpu_limit_utilization:
enabled: true
k8s.pod.cpu_request_utilization:
enabled: true
k8s.pod.memory_limit_utilization:
enabled: true
k8s.pod.memory_request_utilization:
enabled: true
k8s.pod.uptime:
enabled: true
k8s.node.uptime:
enabled: true
k8s.container.cpu_limit_utilization:
enabled: true
k8s.container.cpu_request_utilization:
enabled: true
k8s.container.memory_limit_utilization:
enabled: true
k8s.container.memory_request_utilization:
enabled: true
container.uptime:
enabled: true
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
headers:
authorization: "${env:HYPERDX_API_KEY}"
compression: gzip
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
Создание конфигурации развертывания
Чтобы собирать события Kubernetes и кластерные метрики, нам нужно развернуть отдельный коллектор OpenTelemetry в виде ресурса Развертывание.
Скачайте манифест развертывания:
curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_deployment.yaml
k8s_deployment.yaml
# deployment.yaml
mode: deployment
image:
repository: otel/opentelemetry-collector-contrib
tag: 0.123.0
# Нам нужен только один такой коллектор — иначе данные будут дублироваться
replicaCount: 1
presets:
kubernetesAttributes:
enabled: true
# При включении процессор будет извлекать все метки (labels) для соответствующего пода и добавлять их как атрибуты ресурса (resource attributes).
# Точное имя метки будет ключом.
extractAllPodLabels: true
# При включении процессор будет извлекать все аннотации для соответствующего пода и добавлять их как атрибуты ресурса (resource attributes).
# Точное имя аннотации будет ключом.
extractAllPodAnnotations: true
# Настраивает коллектор на сбор событий Kubernetes.
# Добавляет k8sobject receiver в конвейер логов и по умолчанию собирает события Kubernetes.
# Дополнительная информация: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-objects-receiver
kubernetesEvents:
enabled: true
# Настраивает Kubernetes Cluster Receiver для сбора метрик на уровне кластера.
# Добавляет k8s_cluster receiver в конвейер метрик и добавляет необходимые правила в ClusterRole.
# Дополнительная информация: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-cluster-receiver
clusterMetrics:
enabled: true
extraEnvs:
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
compression: gzip
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
k8s_deployment.yaml
# deployment.yaml
mode: deployment
image:
repository: otel/opentelemetry-collector-contrib
tag: 0.123.0
# Нам нужен только один такой коллектор — иначе данные будут дублироваться
replicaCount: 1
presets:
kubernetesAttributes:
enabled: true
# При включении процессор будет извлекать все метки (labels) для соответствующего пода и добавлять их как атрибуты ресурса (resource attributes).
# Точное имя метки будет ключом.
extractAllPodLabels: true
# При включении процессор будет извлекать все аннотации для соответствующего пода и добавлять их как атрибуты ресурса (resource attributes).
# Точное имя аннотации будет ключом.
extractAllPodAnnotations: true
# Настраивает коллектор на сбор событий Kubernetes.
# Добавляет k8sobject receiver в конвейер логов и по умолчанию собирает события Kubernetes.
# Дополнительная информация: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-objects-receiver
kubernetesEvents:
enabled: true
# Настраивает Kubernetes Cluster Receiver для сбора метрик на уровне кластера.
# Добавляет k8s_cluster receiver в конвейер метрик и добавляет необходимые правила в ClusterRole.
# Дополнительная информация: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-cluster-receiver
clusterMetrics:
enabled: true
extraEnvs:
- name: HYPERDX_API_KEY
valueFrom:
secretKeyRef:
name: hyperdx-secret
key: HYPERDX_API_KEY
optional: true
- name: YOUR_OTEL_COLLECTOR_ENDPOINT
valueFrom:
configMapKeyRef:
name: otel-config-vars
key: YOUR_OTEL_COLLECTOR_ENDPOINT
config:
exporters:
otlphttp:
endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
compression: gzip
headers:
authorization: "${env:HYPERDX_API_KEY}"
service:
pipelines:
logs:
exporters:
- otlphttp
metrics:
exporters:
- otlphttp
Развертывание коллектора OpenTelemetry
Теперь коллектор OpenTelemetry можно развернуть в вашем кластере Kubernetes с помощью Helm-чарта OpenTelemetry.
Добавьте Helm-репозиторий OpenTelemetry:
helm repo add open-telemetry https://open-telemetry.github.io/opentelemetry-helm-charts # Add OTel Helm repo
Установите чарт с приведённой выше конфигурацией:
helm install my-opentelemetry-collector-deployment open-telemetry/opentelemetry-collector -f k8s_deployment.yaml
helm install my-opentelemetry-collector-daemonset open-telemetry/opentelemetry-collector -f k8s_daemonset.yaml
Теперь метрики, логи и события Kubernetes с вашего кластера Kubernetes должны отображаться в HyperDX.
Чтобы коррелировать логи, метрики и трейсы на уровне приложения с метаданными Kubernetes
(например, именем пода, Пространством имен и т.д.), вам следует переслать эти метаданные
в приложение с помощью переменной окружения OTEL_RESOURCE_ATTRIBUTES.
Ниже приведен пример развертывания, которое пересылает метаданные Kubernetes в
приложение с использованием переменных окружения:
# my_app_deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: app-deployment
spec:
replicas: 1
selector:
matchLabels:
app: app
template:
metadata:
labels:
app: app
# Combined with the Kubernetes Attribute Processor, this will ensure
# the pod's logs and metrics will be associated with a service name.
service.name: <MY_APP_NAME>
spec:
containers:
- name: app-container
image: my-image
env:
# ... other environment variables
# Collect K8s metadata from the downward API to forward to the app
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_UID
valueFrom:
fieldRef:
fieldPath: metadata.uid
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: DEPLOYMENT_NAME
valueFrom:
fieldRef:
fieldPath: metadata.labels['deployment']
# Forward the K8s metadata to the app via OTEL_RESOURCE_ATTRIBUTES
- name: OTEL_RESOURCE_ATTRIBUTES
value: k8s.pod.name=$(POD_NAME),k8s.pod.uid=$(POD_UID),k8s.namespace.name=$(POD_NAMESPACE),k8s.node.name=$(NODE_NAME),k8s.deployment.name=$(DEPLOYMENT_NAME)