Ceph

  • Хабрахабр

    Он вам не дRook

    В связи с набирающей популярностью Rook хочется поговорить о его подводных камнях и проблемах, которые ждут вас на пути. О себе: Опыт администрирования ceph с версии hammer, основатель комьюнити t.me/ceph_ru в телеграм. С бОльшей частью проблем в этих постах я тоже столкнулся. Дабы не быть голословным я буду ссылаться на принятые хабром (судя по рейтингу) посты о проблемах с ceph.…

    Подробнее »
  • Хабрахабр

    Rook или не Rook — вот в чём вопрос

    0. В начале этого месяца, 3 мая, был анонсирован крупный релиз «системы управления для распределённых хранилищ данных в Kubernetes» — Rook 1. Более года назад мы уже публиковали общий обзор Rook. 0. Тогда же нас просили рассказать об опыте его использования на практике — и вот, как раз к столь значимой вехе в истории проекта, мы рады поделиться накопленными впечатлениями.…

    Подробнее »
  • Хабрахабр

    [Перевод] Почему в Kubernetes так сложно с хранилищами?

    Появились микрослужбы, а для разработчика логика приложения больше не связана с инфраструктурой: создавай себе приложения и предлагай новые функции. Когда пришли оркестраторы контейнеров, вроде Kubernetes, подход к разработке и деплою приложений изменился кардинально. Только скажите ему, сколько надо памяти и вычислительной мощности, — и все получите. Kubernetes абстрагируется от физических компьютеров, которыми управляет. Не, не слыхали. Ифраструктура? Разработав контейнерные приложения…

    Подробнее »
  • Хабрахабр

    Ceph. Анатомия катастрофы

    Ceph — это object storage, призванный помочь построить отказоустойчивый кластер. И все-таки отказы случаются. Все, кто работает с Ceph, знают легенду о CloudMouse или Росреестре. К сожалению, делиться отрицательным опытом у нас не принято, причины провалов чаще всего замалчивают, и не дают будущим поколениям научиться на чужих ошибках. Измерим все просадки производительности, найдем утечки памяти, разберем процесс восстановления обслуживания. Что ж, настроим тестовый, но близкий к реальному кластер и разберем катастрофу по косточкам. И получил красный…

    Подробнее »
  • Хабрахабр

    Linux Foundation учредил фонды для GraphQL и Ceph — зачем они нужны и чего от них ждать

    Некоммерческий консорциум The Linux Foundation объявил о формировании сразу двух новых фондов: GraphQL Foundation и Ceph Foundation. Далее — подробнее о каждом из них. / фото Roderick Eime CC BY-ND Зачем понадобились новые организации Главная цель Linux Foundation — продвижение и стандартизация Linux. Однако консорциум также занимается развитием всей экосистемы открытого ПО и связанных с ней продуктов. Недавно к ним…

    Подробнее »
  • Хабрахабр

    А вот вы говорите Ceph… а так ли он хорош?

    Я работаю с ним уже 4 года (0. Я люблю Ceph. 2. 80.x — 12. 2. 6, 12. Порой я так увлечен им, что провожу вечера и ночи в его компании, а не со своей девушкой.
 Я сталкивался с различными проблемами в этом продукте, а с некоторыми продолжаю жить и по сей день. 5). Но Ceph по-прежнему используется в нашем…

    Подробнее »
  • Хабрахабр

    Сeph как подключаемое хранилище: 5 практических выводов из крупного проекта

    С учетом роста данных в наше время все чаще говорится о программно-определяемых и распределенных хранилищах данных, причем немало внимания традиционно уделяется открытой платформе Сeph. Сегодня мы хотим рассказать о тех выводах, к которым мы пришли в процессе реализации проекта по хранению данных для одного крупного российского ведомства. Чисто теоретически плюсов у таких решений много: можно использовать любые диски, система работает…

    Подробнее »
  • Хабрахабр

    Разносим S3 бакеты по разным пулам в Ceph Luminous

    В процессе настройки нового кластера на Ceph Luminous появилась задача разнести разные S3 бакеты по разным устройствам хранения (в моем случае SSD и HDD). В интернете много инструкций как это сделать в Ceph Jewel, но в случае с Luminous процесс претерпел большие изменения и старые инструкции больше не работают. Вместе с тем, что в офф документации этот сценарий не описан,…

    Подробнее »
  • Хабрахабр

    Rook — «самообслуживаемое» хранилище данных для Kubernetes

    29 января технический комитет организации CNCF (Cloud Native Computing Foundation), стоящей за Kubernetes, Prometheus и другими Open Source-продуктами из мира контейнеров и cloud native, объявил о принятии проекта Rook в свои ряды. Отличный повод познакомиться поближе с этим «оркестровщиком систем распределённого хранения данных в Kubernetes». Что за Rook? Rook — это написанное на Go программное обеспечение (распространяется по свободной лицензии…

    Подробнее »
  • Хабрахабр

    Строим распредёленное реактивное приложение и решаем задачи согласованности

    Сегодня многие компании, начиная новый проект или улучшая существующие системы, задаются вопросом, какой вариант разработки более оправдан — воспользоваться «классическим» трехслойным подходом или же спроектировать систему как набор слабосвязанных компонентов? В первом кейсе мы можем оптимально использовать весь накопленный опыт и существующую инфраструктуру, но придется терпеть долгие циклы планирований и релизов, сложности в тестировании и в обеспечении бесперебойной работы. Во…

    Подробнее »


Кнопка «Наверх»
Закрыть