💻
Cheet Sheets
  • 🦁Başlarken
  • 🟧DevOps Pre-Requisite
    • ❤️Why Linux? | Linux Basics #1
    • 💛Vi Editor | Linux Basics #2
    • 💙Basics Commands | Linux Basics #3
    • 🧡Package Managers | Linux Basics #4
    • 💚Services | Linux Basics #5
    • 💛Networking Basics
    • 🤎DNS Basics
    • 🩶Applications Basics
    • 🟨Java introduction
    • 🟩NodeJS Introduction
    • 🟦Python Introduction
    • 🟪GIT Introduction
    • 🟧Apache Web Server Introduction
    • ⬛Apache Tomcat
    • 🟫Python Flask
    • 🟥Node.js Express App
    • 🟨Databases
    • 🟩MySQL
    • 🟪MongoDB
    • 🟨SSL & TLS
    • 🟦YAML & JSON - JSON Path
    • ⬛Labs Resources
  • 🍎Kubernetes
    • 🍏Kubernetes: Nedir ?
    • 🍒Bileşenler
    • 🍵Kubectl ve Versiyon
    • ❤️Pod
    • 🏷️Label ve Selector
    • 🔎Annotation
    • 📲Namespaces
    • 📦Deployments
    • 🔁ReplicaSet
    • 🔙Rollout & Rollback
    • 🌐Networking - 1
    • 🌏Service
    • 🛠️Liveness Probe & Readiness Probe
    • 🥐Resource Limits
    • 💰Environment Variables
    • 📃Ephemeral Volumes
    • 🔑Secrets
    • 🌂ConfigMap
    • 🖥️Node Affinity
    • 🔌Pod Affinity
    • ✍️Taint and Toleration
    • 🔦DaemonSet
    • 🧀PV/PVC
    • 🌜Storage Class
    • 🗿StatefulSet
    • 🕹️Job & Cronjob
    • 🔐Authentication
    • 📏Role-based access control (RBAC)
    • 🈷️Service Account
    • 📈Ingress
    • 📂ImagePullPolicy & ImageSecret
    • 📖Static Pods
    • 🌐Network Policy
    • 🫐Helm Nedir?
    • 📽️Prometheus Stack - Monitoring
    • 💼EFK Stack - Monitoring
    • 🥳CRD & Operator
  • 🧑‍⚕️GIT & GITHUB
    • 👉Girizgah
    • 🌴Branch
    • 🤝Merge
    • 🤔Conflict - Rebase
    • 🇸🇴Alias
    • 🛑Gitignore
    • 🥢Diff
    • ◀️Checkout
    • 🔦Stash
    • 👉Other
  • ☁️AWS
    • 🪣S3
    • 🚙EC2
    • ⚖️ELB
    • 🤝Auto Scaling
    • 🗄️EFS
    • 🔐VPC
    • 🎆CloudFront
    • ❤️Route53
    • 🦈RDS
    • 🏢ElastiCache
    • 🔭CloudWatch
    • 👀CloudTrail
    • 📃CloudFormation
    • 🔕SNS
    • 📬SQS
    • 🎇SWF
    • 📧SES
    • 📦Kinesis
    • 📐AWSConfig
    • 👩‍🏭OpsWork
    • 🚀Lambda - Api Gateway
    • 📌ECS - EKS
    • 🔑KMS
    • 📂Directory Service
    • 🏐Snowball
    • 💾Storage Gateway
    • 💽Volume Gateway
    • 📼Tape Gateway
    • 🏠Organizations
    • 🔙Backup-Transfer-CloudShell
    • 🆔IAM
    • 📀DataSync
    • 🗃️FSx
    • 🎒Aurora Serverless
    • 🌐Global Accelerator
    • 💪HPC
    • 🎰Outposts
    • 🗼Others
  • 👨‍🔬Ansible
    • 👉Girizhah
    • 📔YAML
    • ⚙️Komponentler
    • 🎒Inventory
    • 🏑ad-hoc
    • ▶️Playbook
  • 👨‍⚕️PROMETHEUS
    • 📈Terminoloji
    • 🦯Ubuntu 20.04 Prometheus Kurulum
    • 🗒️prometheus.yml dosyasına ilk bakış:
    • 🧭promQL up query
    • 📇Exporters
    • 🔦promQL Data Types
    • 🦯Selectors & Matchers
    • 🔢Binary Operators
    • 💀ignoring and on
    • ✍️Aggregation Operators
    • 🧠Functions
    • 🖊️Alıştırma
    • 💻Client Libraries
    • 🐍Examining the data of our Python application
    • 🐐Examining the data of our GO application
    • ⏺️Recording Rules
    • 💡rate functions
    • ⏰Alerting
    • ⌚Alert Routing
    • ⏰Slack integration with Prometheus
    • 🤯PagerDuty integration with Prometheus
    • ◼️BlackBox exporter
    • 📍Push Gateway
    • 🪒Service Discovery
    • 🧊kube cadvisor with external prometheus
    • 👉aws with prometheus
    • ☁️CloudWatch Exporter
    • 👨‍🚒mysql exporter
    • 🛃Custom exporter with Python
    • ⚙️Prometheus with HTTP API
    • 🤖Prometheus Federation For Kubernetes
    • 📺Grafana
    • ⁉️Prometheus: Ne zaman kullanılmalı? Ne zaman kullanılmamalıdır?
  • 🍪Sheets
    • 🛳️Docker Sheets
    • 🐐Kube Sheets
  • 🔢12 Factor APP
    • 🏗️Introduction
    • 1️⃣Codebase
    • 2️⃣Dependencies
    • 3️⃣Concurrency
    • 4️⃣Processes
    • 5️⃣Backing Services
    • 6️⃣Config
    • 7️⃣Build, release, run
    • 8️⃣Port binding
    • 9️⃣Disposability
    • 🔟Dev/prod parity
    • 🕚Logs
    • 🕛Admin processes
  • ☁️Azure 104
    • 👨‍👨‍👧‍👧Azure Active Directory ( Entra ID )
    • 💰Subscriptions
    • 🌎Virtual Network (VNET)
    • 💻Virtual Machines
    • 🧑‍🌾Load Balancing
    • 🥍Network Advanced
    • 🪡Automating Deployment and Configuration
    • 💂Securing Storage
    • 📓Administering Azure Blobs and Azure Files
    • 🔧Managing Storage
    • 🎁App Service
    • 🛳️Azure Container
    • 🥇Backup And Recovery
    • 🪐Network Watcher
    • ⏰Resource Monitoring And Alerts
  • ⛅AZURE 305
    • 🆔identity and access management
    • 💼Desing Azure AD (Entra ID)
    • 👨‍💼Desing for Azure B2B
    • 🛃Desing for Azure B2C
    • 💳Design for MFA and Conditional Access
    • ⛑️Design for Identity Protection
    • 🚶Access Reviews
    • 🚦Managed identity Demostration
    • 🔐Key Vault Demostration
    • 👑Governance hierarchy
    • 💠Design for Management Groups
    • 🔑Desing for Subscriptions
    • 🍇Desing for resource groups
    • 📟Design for resource tags
    • 🚷Azure Policy & RBAC
    • 🫐Desing For Blueprints
    • 🪡Desing for Virtual Networks
    • 🛫Design for on-premises connectivity to Azure
    • 🔽Design for network connectivity
    • 📦Design for application delivery
    • 🥞Design for network security and application protection
    • 📕Choose a compute solution
    • 🌊Design for virtual machines
    • 🔋Azure Batch Demostration
    • 🛰️Design for Azure App Service
    • ⛲Design for Azure Container Instances
    • 🎢Design for Azure Kubernetes Service
    • 📠Azure Functions Demostration
    • 💪Azure Logic Apps Demostration
    • 🧑‍💼Design for data storage
    • 🎞️Design for Azure storage accounts
    • 🌟Choose the storage replication
    • 📹Azure blob storage - Lifecycle & immutable demo
    • 🥌Azure Files Demostration
    • 🕸️Design Azure disks
    • 🦼Design for storage security
    • 🔮Azure Table Storage And Cosmos DB Demostration
    • 🟧Azure SQL Solutions
    • 🎡Azure SQL Database - Purchasing models
    • 🕯️Database availability
    • 📜Data security strategy
    • 🧮Azure SQL Edge
    • 🚲Azure Data Factory
    • 🔅Azure Data Lake Storage
    • 🧘‍♂️Azure Databricks
    • 🎒Azure Synapse Analytics
    • 🅰️Azure Stream Analytics
    • 📼Data flow strategy
    • 🍥Cloud Adoption Framework
    • ☣️Azure Migration Framework
    • 🦿Assessing workloads
    • 🪡Migration tools
    • 🤖Azure Database migration
    • 👥Storage migration
    • 👜Azure Backup
    • ⏲️Azure Blob Backup and Recovery
    • 💈Azure files backup and recovery
    • 🎞️Azure VM backup and recovery
    • 🧺Azure SQL backup and recovery
    • ⏰Azure Site Recovery
    • 📩Differentiate event and message
    • ✈️Azure messaging solutions
    • 🚜Event Hub
    • 🥍Application optimization solution
    • 🎁Application lifecycle
    • 📺Azure Monitor
    • 🅱️Log Analytics
    • 👥Azure workbooks and Insights
    • 🚌Azure Data Explorer
  • Github Actions
    • Github Actions Nedir?
    • Workflow & Schedule Triggers
    • Single and Multiple Events
    • Manuel Events
    • Webhook Events
    • Conditional Keywords For Steps
    • Expressions - 1
    • Expressions - 2
    • Runners
    • Workflow Commands
    • Workflow Context
    • Dependent Jobs
    • Encrypted Secrets
    • Configuration Variables
    • Default & Custom Env Varb
    • Set Env Varb with Workflow Commands
    • Github Token Secret
    • Add Script to workflow
    • Push Package #1
    • Push Package #2 Docker
    • Service Containers
    • Routing workflow to runner
    • CodeQL Step
    • Caching Package and Dependency Files
    • Remove workflow Artifact
    • Workflow Status Badge
    • Env Protection
    • Job Matrix Configuration
    • Disable & Delete Workflows
    • Actions type for Action
    • Inputs and Outputs for actions
    • Action Versions
    • Files and Directories for Actions
    • Exit Codes
    • Reusable Workflow & Reuse Templates for Actions and Workflows
    • Configure Self Hosted Runners for Enterprise
  • Loki
    • What is Loki?
    • Architecture of Loki
    • Install Loki For Ubuntu
    • Install Promtail For Ubuntu
    • Querying Logs
    • Loki in Kubernetes
    • Deploying Loki in Kubernetes
    • Connecting to Grafana
    • Viewing Kubernetes logs
    • Promtail Customize & Pipeline
  • Ansible
    • Ansible Introduction
    • Introduction to Ansible Configuration Files
    • Ansible Inventory
    • Inventory Formats
    • Ansible Variables
    • Variable Types
    • Registering Variables and Variable Precedence
    • Variable Scoping
    • Magic Variables
    • Ansible Facts
    • Ansible Playbooks
    • Verifying Playbooks
    • Ansible lint
    • Ansible Conditionals
    • Ansible Conditionals based on facts, variables, re-use
    • Ansible Loops
    • Ansible Modules
    • Introduction to Ansible Plugins
    • Modules and Plugins Index
    • Introduction to Handlers
    • Ansible Roles
    • Ansible Collections
    • Introduction to Templating
    • Jinja2 Templates for Dynamic Configs
  • 🅰️Ansible Advanced
    • Playbook run options
    • Facts
    • Configuration files
Powered by GitBook
On this page

Was this helpful?

  1. PROMETHEUS

Custom exporter with Python

Aşağıdaki kod, Prometheus Python Client kütüphanesini kullanarak /tmp dizinindeki dosya sayısını izleyen özel bir exporter oluşturur.

custom-exporter.py
import os
from prometheus_client import start_http_server, Gauge

# Dosya sayısını izlemek için bir ölçer (Gauge) oluşturun
file_count = Gauge('tmp_files_count', 'Number of files in /tmp directory')

# /tmp dizinindeki dosya sayısını almak için bir işlev tanımlayın
def get_file_count():
    file_list = os.listdir('/tmp')
    return len(file_list)

# Metrikleri güncellemek için bir işlev tanımlayın
def update_metrics():
    file_count.set(get_file_count())

# HTTP sunucusunu başlatın ve metrikleri güncelleyin
if __name__ == '__main__':
    # Prometheus metriklerini yayınlamak için bir HTTP sunucusu başlatın
    start_http_server(9009)

    # Metrikleri güncellemek için bir döngü başlatın
    while True:
        # Her döngüde dosya sayısını güncelleyin
        update_metrics()
  1. İlk olarak, os ve prometheus_client modüllerini içe aktarıyoruz. os modülü, işletim sistemi işlevlerini kullanmamıza izin verirken, prometheus_client modülü Prometheus metriklerini oluşturmak ve yayınlamak için kullanılır.

  2. file_count adında bir ölçer (Gauge) oluşturuyoruz. Bu ölçer, /tmp dizinindeki dosyaların sayısını temsil edecektir. İsim ve açıklama parametreleriyle birlikte Gauge sınıfından bir örnek oluşturulur.

  3. get_file_count() adında bir işlev tanımlanır. Bu işlev, /tmp dizinindeki dosyaların sayısını almak için os.listdir('/tmp') işlevini kullanır. len(file_list) ifadesi, file_list listesinin uzunluğunu döndürür, yani /tmp dizinindeki dosyaların sayısını verir.

  4. update_metrics() adında bir işlev daha tanımlanır. Bu işlev, get_file_count() işlevini çağırarak /tmp dizinindeki dosya sayısını alır ve file_count ölçerini günceller. file_count.set() işlevi, ölçeri güncel değerle ayarlar.

  5. if __name__ == '__main__': bloğu, Python betiğinin doğrudan çalıştırıldığında (yani başka bir betik tarafından içe aktarılmadığında) çalışacak kodu içerir. Bu blokta, start_http_server(9009) ifadesiyle bir HTTP sunucusu başlatılır ve Prometheus metriklerini 9009 numaralı portta yayınlar.

  6. Sonsuz bir döngü içinde update_metrics() işlevi çağrılır. Bu sayede /tmp dizinindeki dosya sayısı periyodik olarak güncellenir ve Prometheus tarafından toplanabilir.

Bu şekilde çalışan bir örnek, /tmp_files_count adıyla bir Prometheus metriğini yayınlayacak ve bu metrik /tmp dizinindeki dosya sayısını gösterecektir. /metrics yoluna yapılan HTTP istekleriyle bu metriği görüntüleyebilirsiniz.

Uygulamayı çalıştıralım,

/usr/bin/python3 custom-exporter.py

Prometheus'a özel exporter eklemek için aşağıdaki adımları izleyebilirsiniz:

  1. Prometheus yapılandırma dosyasını düzenleyin: Prometheus'un yapılandırma dosyasını (varsayılan olarak prometheus.yml) açın ve düzenleyin.

  2. Yapılandırma dosyasına hedef ekleyin: scrape_configs bölümünde, job_name ve static_configs ayarlarını kullanarak bir hedef ekleyin. Örneğin:

scrape_configs:
  - job_name: 'custom_exporter'
    static_configs:
      - targets: ['10.90.0.144:9009']

Yukarıdaki örnekte, custom_exporter adında bir iş tanımı (job) ekledik ve hedef olarak 10.90.0.144:9009 adresini belirttik. 9009, örnek kodunuzda HTTP sunucusunu başlattığınız port numarasına karşılık gelmelidir.

  1. Prometheus'u yeniden başlatın: Yapılandırma dosyasını kaydedin ve Prometheus'u yeniden başlatın, böylece yapılandırma değişiklikleri yürürlüğe girecektir.

  2. Prometheus arayüzünde metrikleri kontrol edin: Prometheus arayüzünü tarayıcınızda açın.

  3. Metrikleri sorgulayın: Prometheus arayüzünde, metrikleri sorgulayabilir ve görselleştirebilirsiniz. Örneğin, custom_exporter adını kullanarak /metrics yoluna yapılan isteklerin sonucunu görebilirsiniz.

Prometheus, yapılandırma dosyasında belirtilen hedefleri düzenli aralıklarla sorgular ve metrikleri toplar. Bu şekilde, özel ihracatçınızın sağladığı metrikleri alabilir ve izleyebilirsiniz. İlgili yapılandırmayı yaptıktan sonra, Prometheus, belirttiğiniz IP adresi olan 10.90.0.144 üzerinde çalışan özel exporter metrikleri alacaktır.

Düzgün çalışıp, çalışmadığını anlamak için /tmp dizininde random dosyalar oluşturalım.

for i in {1..15}; do
    file_name=$(cat /dev/urandom | tr -dc 'a-zA-Z0-9' | fold -w 8 | head -n 1)
    touch "/tmp/$file_name"
    echo "Oluşturulan dosya: $file_name"
done

Yukarıdaki komut, döngü kullanarak 15 defa işlem yapar. Her adımda, file_name değişkeni rasgele bir dosya adı oluşturmak için /dev/urandom kullanır. tr komutuyla yalnızca harf ve rakamlardan oluşan karakterler seçilir ve fold komutuyla 8 karakter uzunluğunda bir satır oluşturulur. head komutuyla bu satırdan ilk satır seçilir ve file_name değişkenine atanır.

Sonra touch komutuyla, file_name değeri kullanılarak dosya oluşturulur. Oluşturulan dosya adı da ekrana yazdırılır.

Bu shell komutunu çalıştırdığınızda, /tmp dizininde 15 tane rasgele dosya oluşturulacak ve her dosya adı ekrana yazdırılacaktır.

Aşağıda göreceğiniz üzere, dosya sayısı 205 olarak güncellenmiş gözüküyor.

Previousmysql exporterNextPrometheus with HTTP API

Last updated 1 year ago

Was this helpful?

👨‍⚕️
🛃