
Работа с Google Cloud Platform (dataflow job) и Terraform в Unix/Linux
Google Cloud Platrorm — это платформа вида «инфраструктура как сервис» (IaaS), позволяющая клиентам создавать, тестировать и развертывать собственные приложения на инфраструктуре Google, в высокопроизводительных виртуальных машинах.
Google Compute Engine предоставляет виртуальные машины, работающие в инновационных центрах обработки данных Google и всемирной сети.
Dataflow job — Создает задание в Dataflow, которое представляет собой реализацию Apache Beam, запущенную в Google Compute Engine. Для получения дополнительной информации смотрите официальную документацию для Beam и Dataflow.
Установка terraform в Unix/Linux
Установка крайне примитивная и я описал как это можно сделать тут:
Установка terraform в Unix/Linux
Вот еще полезные статьи по GCP + Terrafrom:
Работа с Google Cloud Platform (compute instance) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute health check) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute target pool) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute forwarding rule) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute firewall) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute disk) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute image) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute instance template) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute instance group manager) и Terraform в Unix/Linux
Работа с Google Cloud Platform (compute autoscaler) и Terraform в Unix/Linux
Работа с Google Cloud Platform (google kms) и Terraform в Unix/Linux
Работа с Google Cloud Platform (storage bucket) и Terraform в Unix/Linux
Работа с Google Cloud Platform (google pubsub) и Terraform в Unix/Linux
Работа с Google Cloud Platform (google dns) и Terraform в Unix/Linux
Работа с Google Cloud Platform (cloudbuild_trigger) и Terraform в Unix/Linux
Работа с Google Cloud Platform (redis instance) и Terraform в Unix/Linux
Работа с Google Cloud Platform (sql database instance) и Terraform в Unix/Linux
Работа с Google Cloud Platform (sourcerepo repository) и Terraform в Unix/Linux
Генерация документации для Terraform с Python в Unix/Linux
Так же, в данной статье, я создал скрипт для автоматической установки данного ПО. Он был протестирован на CentOS 6/7, Debian 8 и на Mac OS X. Все работает должным образом!
Чтобы получить помощь по использованию команд, выполните:
$ terraform --help Usage: terraform [--version] [--help] <command> [args] The available commands for execution are listed below. The most common, useful commands are shown first, followed by less common or more advanced commands. If you're just getting started with Terraform, stick with the common commands. For the other commands, please read the help and docs before usage. Common commands: apply Builds or changes infrastructure console Interactive console for Terraform interpolations destroy Destroy Terraform-managed infrastructure env Workspace management fmt Rewrites config files to canonical format get Download and install modules for the configuration graph Create a visual graph of Terraform resources import Import existing infrastructure into Terraform init Initialize a Terraform working directory output Read an output from a state file plan Generate and show an execution plan providers Prints a tree of the providers used in the configuration push Upload this Terraform module to Atlas to run refresh Update local state file against real resources show Inspect Terraform state or plan taint Manually mark a resource for recreation untaint Manually unmark a resource as tainted validate Validates the Terraform files version Prints the Terraform version workspace Workspace management All other commands: debug Debug output management (experimental) force-unlock Manually unlock the terraform state state Advanced state management
Приступим к использованию!
Работа с Google Cloud Platform (dataflow job) и Terraform в Unix/Linux
Первое что нужно сделать — это настроить «Cloud Identity». С помощью сервиса Google Cloud Identity вы сможете предоставлять доменам, пользователям и аккаунтам в организации доступ к ресурсам Cloud, а также централизованно управлять пользователями и группами через консоль администратора Google.
Полезное чтиво:
Установка Google Cloud SDK/gcloud в Unix/Linux
У меня есть папка terraform, в ней у меня будут лежать провайдеры с которыми я буду работать. Т.к в этом примере я буду использовать google_cloud_platform, то создам данную папку и перейду в нее. Далее, в этой папке, стоит создать:
$ mkdir examples modules
В папке examples, я буду хранить так званые «плейбуки» для разварачивания различных служб, например — zabbix-server, grafana, web-серверы и так далее. В modules директории, я буду хранить все необходимые модули.
Начнем писать модуль, но для этой задачи, я создам папку:
$ mkdir modules/dataflow_job
Переходим в нее:
$ cd modules/dataflow_job
Открываем файл:
$ vim dataflow_job.tf
В данный файл, вставляем:
#--------------------------------------------------- # Create google dataflow job #--------------------------------------------------- resource "google_dataflow_job" "dataflow_job" { name = "${lower(var.name)}-df-job-${lower(var.environment)}" project = "${var.project}" zone = "${var.zone}" template_gcs_path = "${var.template_gcs_path}" temp_gcs_location = "${var.temp_gcs_location}" max_workers = "${var.max_workers}" on_delete = "${var.on_delete}" parameters { foo = "bar" baz = "qux" } lifecycle { ignore_changes = [] create_before_destroy = true } }
Открываем файл:
$ vim variables.tf
И прописываем:
variable "name" { description = "A unique name for the resource, required by GCE. Changing this forces a new resource to be created." default = "TEST" } variable "environment" { description = "Environment for service" default = "STAGE" } variable "project" { description = "(Optional) The project in which the resource belongs. If it is not provided, the provider project is used." default = "terraform-2018" } variable "template_gcs_path" { description = "(Required) The GCS path to the Dataflow job template. Expect 'gs://<bucket>/<path>'. Ex: 'gs://my-bucket/templates/template_file'" default = "" } variable "temp_gcs_location" { description = "(Required) A writeable location on GCS for the Dataflow job to dump its temporary data. Expect 'gs://<bucket>/<path>'. Ex: 'gs://my-bucket/tmp_dir'" default = "" } variable "zone" { description = "(Optional) The zone in which the created job should run. If it is not provided, the provider zone is used." default = "us-east1" } variable "max_workers" { description = "(Optional) The number of workers permitted to work on the job. More workers may improve processing speed at additional cost." default = "1" } variable "on_delete" { description = "(Optional) One of 'drain' or 'cancel'. Specifies behavior of deletion during terraform destroy. See above note." default = "cancel" } variable "parameters" { description = "(Optional) Key/Value pairs to be passed to the Dataflow job (as used in the template)." default = [] }
Собственно в этом файле храняться все переменные. Спасибо кэп!
Открываем последний файл:
$ vim outputs.tf
И в него вставить нужно следующие строки:
output "google_dataflow_job_name" { description = "Name of google dataflow job" value = "${google_dataflow_job.dataflow_job.name}" } output "google_dataflow_job_state" { description = "State" value = "${google_dataflow_job.dataflow_job.state}" } output "google_dataflow_job_id" { description = "ID" value = "${google_dataflow_job.dataflow_job.id}" }
Переходим теперь в папку google_cloud_platform/examples и создадим еще одну папку для проверки написанного чуда:
$ mkdir dataflow_job && cd $_
Внутри созданной папки открываем файл:
$ vim main.tf
Вставляем:
# # MAINTAINER Vitaliy Natarov "vitaliy.natarov@yahoo.com" # terraform { required_version = "> 0.9.0" } provider "google" { credentials = "${file("/Users/captain/.config/gcloud/creds/terraform_creds.json")}" project = "terraform-2018" region = "us-east1" } module "dataflow_job" { source = "../../modules/dataflow_job" name = "TEST" template_gcs_path = "gs://terraform-2018/templates/template_file" temp_gcs_location = "gs://terraform-2018/tmp_dir" }
Все уже написано и готово к использованию. Ну что, начнем тестирование. В папке с вашим плейбуком, выполняем:
$ terraform init
Этим действием я инициализирую проект. Затем, подтягиваю модуль:
$ terraform get
PS: Для обновление изменений в самом модуле, можно выполнять:
$ terraform get -update
Проверим валидацию:
$ terraform validate
Запускем прогон:
$ terraform plan
Мне вывело что все у меня хорошо и можно запускать деплой:
$ terraform apply
Как видно с вывода, — все прошло гладко! Чтобы удалить созданное творение, можно выполнить:
$ terraform destroy
Весь материал аплоаджу в github аккаунт для удобства использования:
$ git clone https://github.com/SebastianUA/terraform.git
Вот и все на этом. Данная статья «Работа с Google Cloud Platform (dataflow job) и Terraform в Unix/Linux» завершена.