DevOps придумали разработчики, чтобы админы больше работали / Блог компании okmeter.io / Хабрахабр

В итоге типичная “облачная” инфраструктура на текущий момент выглядит примерно так (плюсуй, если узнал свою:) есть серверы docker-, kube- на каждом из них 20-50 контейнеров базы работают на отдельных железках и как правило общие resource-intensive сервисы на отдельных железках, чтобы никому не мешать latency-sensitive сервисы на отдельных железках, чтобы им никто не мешал Я решил попробовать собрать воедино (из давно известных компонентов) и немного потестировать подход, который с

Источник: DevOps придумали разработчики, чтобы админы больше работали / Блог компании okmeter.io / Хабрахабр

 

В итоге типичная “облачная” инфраструктура на текущий момент выглядит примерно так (плюсуй, если узнал свою:)

 

  • есть серверы docker-, kube- на каждом из них 20-50 контейнеров
  • базы работают на отдельных железках и как правило общие
  • resource-intensive сервисы на отдельных железках, чтобы никому не мешать
  • latency-sensitive сервисы на отдельных железках, чтобы им никто не мешал

 

Я решил попробовать собрать воедино (из давно известных компонентов) и немного потестировать подход, который смог бы сохранить “облако” черным ящиком для пользователя.

 

Начнем конечно с постановки задачи:

 

  • у нас есть наши серверные ресурсы и какое-то количество сервисов (приложений), между которыми их нужно разделить
  • нагрузка на соседние сервисы не должна влиять на целевой сервис
  • возможность доутилизировать простаивающие ресурсы
  • хотим понимать, сколько ресурсов осталось и когда пора добавлять мощности

Очень толковая статья. К счастью, по профилю деятельности с такой инфраструктурой дела не имел, но, похоже, придется познакомиться.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *