Ceph

  • ХабрахабрPhoto of Практический пример подключения хранилища на базе Ceph в кластер Kubernetes

    Практический пример подключения хранилища на базе Ceph в кластер Kubernetes

    Container Storage Interface (CSI) — это унифицированный интерфейс взаимодействия Kubernetes и систем хранения данных. Вкратце о нём мы уже рассказывали, а сегодня подробнее рассмотрим связку CSI и Ceph: покажем, как подключить хранилище Ceph к кластеру Kubernetes.В статье приведены реальные, хотя и немного упрощённые для удобства восприятия примеры. Установку и настройку кластеров Ceph и Kubernetes не рассматриваем. Вам интересно, как это…

    Подробнее »
  • ХабрахабрPhoto of Хранение данных в кластере Kubernetes

    Хранение данных в кластере Kubernetes

    Настроить хранение данных приложений, запущенных в кластере Kubernetes, можно несколькими способами. Одни из них уже устарели, другие появились совсем недавно. В этой статье рассмотрим концепцию трёх вариантов подключения СХД, в том числе самый последний — подключение через Container Storage Interface. Способ 1. Указание PV в манифесте пода Типичный манифест, описывающий под в кластере Kubernetes: Цветом выделены части манифеста, где описано,…

    Подробнее »
  • ХабрахабрPhoto of Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами

    Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами

    TL;DR: Вводная статья с описанием разных вариантов хранения данных. Будут рассмотрены принципы, описаны преимущества и недостатки, а также предпочтительные варианты использования. Зачем это все? Хранение данных — одно из важнейших направлений развития компьютеров, возникшее после появления энергонезависимых запоминающих устройств. Системы хранения данных разных масштабов применяются повсеместно: в банках, магазинах, предприятиях. По мере роста требований к хранимым данным растет сложность хранилищ…

    Подробнее »
  • ХабрахабрPhoto of Tips & tricks в работе с Ceph в нагруженных проектах

    Tips & tricks в работе с Ceph в нагруженных проектах

    Используя Ceph как сетевое хранилище в разных по нагруженности проектах, мы можем столкнуться с различными задачами, которые с первого взгляда не кажутся простыми или тривиальными. Например: миграция данных из старого Ceph в новый с частичным использованием предыдущих серверов в новом кластере; решение проблемы распределения дискового пространства в Ceph. Разбираясь с такими задачами, мы сталкиваемся с необходимостью корректно извлечь OSD без…

    Подробнее »
  • ХабрахабрPhoto of Ceph через iSCSI — или на лыжах стоя в гамаке

    Ceph через iSCSI — или на лыжах стоя в гамаке

    Есть ли среди нас (цефоводов) те, кто не любит «профессиональный экстрим»? Вряд ли — иначе бы мы не кувыркались с этим чрезвычайно интересным и забавным продуктом. Зачем? Многие из тех, кто занимались эксплуатацией Ceph, встречали один не слишком частый (а скорее даже очень нечастый) но иногда востребованный кейс — подключить Ceph по iSCSI или FC. Или на виртуализированный, но посредством…

    Подробнее »
  • ХабрахабрPhoto of Больше чем Ceph: блочное хранилище облака MCS

    Больше чем Ceph: блочное хранилище облака MCS

    «Flying Cart», Afu Chan Известно, что распределенной облачной инфраструктуре нужно производительное блочное хранилище, от которого зависит работа PaaS-сервисов и решений, построенных с их помощью. Я работаю в Mail.ru Cloud Solutons архитектором и разработчиком, в том числе занимаюсь нашим облаком. Хотелось, чтобы наши базы данных, файловое хранилище и различные сервисы работали с максимальной производительностью, поэтому мы добавили локализованные хранилища и наладили…

    Подробнее »
  • ХабрахабрPhoto of От High Ceph Latency к Kernel Patch с помощью eBPF/BCC

    От High Ceph Latency к Kernel Patch с помощью eBPF/BCC

    Большинство из них негативно сказываются на производительности приложений и не могут быть использованы в продакшене.Пару лет назад был разработан ещё один инструмент — eBPF. В Linux есть большое количество инструментов для отладки ядра и приложений. Он дает возможность трассировать ядро и пользовательские приложения с низким оверхедом и без необходимости пересборки программ и загрузки сторонних модулей в ядро. Статья основана на…

    Подробнее »
  • ХабрахабрPhoto of [Из песочницы] Сeph — от «на коленке» до «production»

    [Из песочницы] Сeph — от «на коленке» до «production»

    Не то чтобы это всё было нужно для виртуализации, но раз начал использовать opensource — то иди в своём увлечении до конца. У нас было пять стоек, десять оптических свичей, настроенный BGP, пару десятков SSD и куча SAS дисков всех цветов и размеров, а ещё proxmox и желание засунуть всю статику в собственное S3 хранилище. В мире нет никого более…

    Подробнее »
  • ХабрахабрPhoto of Он вам не дRook

    Он вам не дRook

    В связи с набирающей популярностью Rook хочется поговорить о его подводных камнях и проблемах, которые ждут вас на пути. О себе: Опыт администрирования ceph с версии hammer, основатель комьюнити t.me/ceph_ru в телеграм. С бОльшей частью проблем в этих постах я тоже столкнулся. Дабы не быть голословным я буду ссылаться на принятые хабром (судя по рейтингу) посты о проблемах с ceph.…

    Подробнее »
  • ХабрахабрPhoto of Rook или не Rook — вот в чём вопрос

    Rook или не Rook — вот в чём вопрос

    0. В начале этого месяца, 3 мая, был анонсирован крупный релиз «системы управления для распределённых хранилищ данных в Kubernetes» — Rook 1. Более года назад мы уже публиковали общий обзор Rook. 0. Тогда же нас просили рассказать об опыте его использования на практике — и вот, как раз к столь значимой вехе в истории проекта, мы рады поделиться накопленными впечатлениями.…

    Подробнее »


Кнопка «Наверх»