Обзор архитектуры [файловой] системы CephOSLLCeph является одной из мнообещающих архитектур для построения облачных хранилищ данных. В презентации приведены основные возможности, описана архитектура, дан краткий обзор команд CLI
Защита датацентров и данных от катастроф на базе технологий Nutanix / Максим ...Ontico* RTO - Recovery Time Objective - максимальное время, за которое все ваши бизнес-задачи должны полностью быть восстановлены в работоспособное состояние после полной катастрофы ДЦ
RPO - Recovery Point Objective - максимально приемлемый для ваших задач промежуток времени, за который вы готовы потерять данные.
* Стратегии защиты и репликации ДЦ (1 to 1, 1 to many, many to many).
далее см. - http://rootconf.ru/2015/abstracts/1817
Как и зачем создавать NginX-модуль — теория, практика, профит. Часть 2 / Васи...OnticoHighLoad++ 2017
Зал Дели + Калькутта, 7 ноября, 15:00
Тезисы:
http://www.highload.ru/2017/abstracts/2940.html
Почти год назад я выступил с докладом 'Как и зачем создавать NginX-модуль - теория, практика, профит'. У меня не получилось рассказать обо всех возможностях Nginx и, уверяю вас, в этом докладе у меня это тоже не получится - тема слишком большая!
Сразу перейдем к делу. "Так что нового будет в этом докладе?" - спросите вы. В нем будут ответы на вопросы, на которые я не успел ответить в прошлом году, а именно:
- Как и зачем создавать upstream-модули?
...
Велосипед уже изобретен. Что умеют промышленные СХД? / Антон Жбанков (Nutanix)OnticoЗачем мы каждый раз изобретаем велосипед, только потому что можем? Корпоративные СХД существуют более 25 лет и умеют очень многое.
Защита данных, качество обслуживания, многоуровневое хранение и кэширование на флэш-памяти. Система хранения данных - это не только гигабайт по минимальной цене, но так же и гарантированная производительность и отказоустойчивость.
Вы узнаете, как можно обеспечить своим данным высокую степень защиты, значительно сократив время реализации проекта. Или, наоборот, убедитесь в том, что СХД корпоративного класса вашему проекту не подходят.
Технологии хранения для больших проектов / Сергей Платонов (RAIDIX)OnticoHighLoad++ 2017
Зал «Пекин+Шанхай», 7 ноября, 18:00
Тезисы:
http://www.highload.ru/2017/abstracts/2990.html
Мы ежедневно сталкиваемся с тем, что даже работающие более 15 лет в индустрии специалисты, путаются в понятиях и преимуществах и недостатках тех или иных архитектур больших СХД.
В своем докладе мы расскажем о разнице между distributed (распределенными), shared (общими) и параллельными файловыми системами, покажем, в каких задачах Scale In-системы превосходят Scale Out и наоборот.
...
Вычислительная инфраструктура без американских производителей: реалии и возмо...КРОКСеминар «Вендорозамещение на 100%: инфраструктура, телеком и все-все-все»
http://www.croc.ru/action/detail/50595/
Презентация Антона Семчишена, менеджера по продвижению комплексных решений компании КРОК
Андрей Николаенко, IBS. NVMf: 5 млн IOPS по сети своими рукамиIBSАндрей Николаенко, системный архитектор в IBS, выступил на конференции HighLoad++ 2016.
Тезисы
В выпуске 4.8 ядра Linux появилась поддержка NVMf (NVM Express over Fabrics) — стандартизованной возможности присоединять по сети как блочные устройства твердотельные накопители, установленные в разъёмы PCI Express. NVMf лишён многих недостатков iSCSI, повторяющего по сети SCSI-команды со всеми их издержками времён дисковых накопителей, и главное — позволяет по полной использовать возможности сетей с прямым доступом к оперативной памяти (RDMA). Таким образом, можно под управлением одного узла собрать сверхбыстрый и сверхотзывчивый пул блочных устройств, не прибегая к покупке дорогого флэш-массива. Но как воспользоваться этим пулом, не загубив теоретические показатели программными обёртками?
В докладе будут рассмотрены варианты применения NVMf для различных конфигураций PostgreSQL, Oracle Database, Hadoop, файловых хранилищ, о разработках в направлении «программно-определяемой памяти» с применением NVMe-устройств, доступных по сети, обсуждены текущие проблемы, ограничения и перспективы. Особое внимание будет уделено практическим способам измерения производительности ввода-вывода с учётом задачи, решаемой подсистемой хранения.
Максим Исаев, IBS. Практика использования комплекса Veritas NetBackup для мод...IBSМаксим Исаев, начальник отдела вычислительных платформ в компании IBS, выступил на Veritas Vision Solution Day 2016
Бинарные (файловые) хранилища: страшная сказка с мрачным концом / Даниил Подо...Ontico1. Вводная часть: базовые понятия и определения
1.1. Что такое “файл”
1.2. Роль файлов в современном мире, миф о ненужности файлов
1.3. Файловое хранилище АКА файловая система
1.3.1. внутреннее устройство
1.3.1.1. винтажные и журналируемые. зачем нужен журнал
1.3.1.2. плоские и иерархические
1.3.1.3. контроль доступа
1.3.2. POSIX
1.3.2.1. произвольное чтение
1.3.2.2. произвольная запись
1.3.2.3. атомарные операции
1.3.3. bells and whistles
1.3.3.1. сжатие, шифрование, дедупликация
1.3.3.2. snapshots
1.4. кеширование чтения и записи
2. HighLoad - это сеть
2.1. что вообще такое “HighLoad”, или “ведет ли кроилово к попадалову”
2.2. протоколы доступа: stateless и stateful
2.3. отказоустойчивость и ее двуличие
2.3.1. целостность данных
2.3.2. бесперебойные запись и чтение
2.4. Теорема CAP
3. Так в чем проблема?
3.1. Берем большую-пребольшую СХД и…
3.1.1. локальный кеш?!
3.1.2. конкурентная запись?!!
3.1.3. Берем OCFS2 и…
3.1.3.1. Как “падают виртуалки”?!
3.1.3.2. И почему так медленно?
3.1.4. А еще большую-пребольшую СХД довольно трудно получить в свое распоряжение
3.2. Берем CEPH/Lustre/LeoFS и…
3.2.1. Почему так медленно?!
3.2.2. Что значит “ребалансинг”?!
3.3. И немного о резервном копировании
3.3.1. Резервное копирование - это не отказоустойчивость
3.4. И снова про атомарные операции
3.5. Так почему все-таки нельзя просто сложить файлы в базу?
4. Что же делать?
4.1. В первую очередь это зависит от того, какова наша задача
4.1.1. А надо ли экономить?
4.1.2. POSIX - нужен ли он?
4.1.3. Большие файлы - нужны ли они?
4.1.4. Атомарные операции - нужны ли они?
4.1.5. Версионирование - нужно ли версионирование?
4.1.6. Насколько большим должно быть наше хранилище?
4.1.7. И собираемся ли мы удалять файлы?
4.1.8. И каков будет профиль нагрузки?
4.2. I’m feeling lucky - для некоторых сочет�
HDD, SSD, RAM, RAID, и кого на ком кэшировать / Михаил Конюхов (Perfect Solut...OnticoРассуждение, опыт, практика и примеры на тему производительности ввода-вывода.
Мы будем сравнивать "дефолтное" поведение SSD и HDD, сравним "недефолтное" поведение после тюнинга HDD. Я расскажу о плюсах и минусах в надежности HDD и SSD, о проблемах восстановления SSD и HDD после сбоев. Многие моменты будут посвящены кэшированию ввода-вывода, что очень помогает в реальных проектах.
Отдельная тема - оптимизация ФС и сервера для снижения количества операций ввода-вывода (IOPS), попробую оценить, что можно сделать с каким-нибудь проектом-примером.
Будут показаны и рассказаны реальные примеры из моего опыта оптимизации IO, я даже нарисую "карту принятия решения" для выбора накопителей для Вашего проекта.
Инфраструктура хранения для KADME WhereoilVsevolod ShabadОписание подходов "СетьПроекта" к построению инфраструктуры архива геолого-геофизических данных на платформе KADME Whereoil
Как и зачем создавать NginX-модуль — теория, практика, профит. Часть 2 / Васи...OnticoHighLoad++ 2017
Зал Дели + Калькутта, 7 ноября, 15:00
Тезисы:
http://www.highload.ru/2017/abstracts/2940.html
Почти год назад я выступил с докладом 'Как и зачем создавать NginX-модуль - теория, практика, профит'. У меня не получилось рассказать обо всех возможностях Nginx и, уверяю вас, в этом докладе у меня это тоже не получится - тема слишком большая!
Сразу перейдем к делу. "Так что нового будет в этом докладе?" - спросите вы. В нем будут ответы на вопросы, на которые я не успел ответить в прошлом году, а именно:
- Как и зачем создавать upstream-модули?
...
Велосипед уже изобретен. Что умеют промышленные СХД? / Антон Жбанков (Nutanix)OnticoЗачем мы каждый раз изобретаем велосипед, только потому что можем? Корпоративные СХД существуют более 25 лет и умеют очень многое.
Защита данных, качество обслуживания, многоуровневое хранение и кэширование на флэш-памяти. Система хранения данных - это не только гигабайт по минимальной цене, но так же и гарантированная производительность и отказоустойчивость.
Вы узнаете, как можно обеспечить своим данным высокую степень защиты, значительно сократив время реализации проекта. Или, наоборот, убедитесь в том, что СХД корпоративного класса вашему проекту не подходят.
Технологии хранения для больших проектов / Сергей Платонов (RAIDIX)OnticoHighLoad++ 2017
Зал «Пекин+Шанхай», 7 ноября, 18:00
Тезисы:
http://www.highload.ru/2017/abstracts/2990.html
Мы ежедневно сталкиваемся с тем, что даже работающие более 15 лет в индустрии специалисты, путаются в понятиях и преимуществах и недостатках тех или иных архитектур больших СХД.
В своем докладе мы расскажем о разнице между distributed (распределенными), shared (общими) и параллельными файловыми системами, покажем, в каких задачах Scale In-системы превосходят Scale Out и наоборот.
...
Вычислительная инфраструктура без американских производителей: реалии и возмо...КРОКСеминар «Вендорозамещение на 100%: инфраструктура, телеком и все-все-все»
http://www.croc.ru/action/detail/50595/
Презентация Антона Семчишена, менеджера по продвижению комплексных решений компании КРОК
Андрей Николаенко, IBS. NVMf: 5 млн IOPS по сети своими рукамиIBSАндрей Николаенко, системный архитектор в IBS, выступил на конференции HighLoad++ 2016.
Тезисы
В выпуске 4.8 ядра Linux появилась поддержка NVMf (NVM Express over Fabrics) — стандартизованной возможности присоединять по сети как блочные устройства твердотельные накопители, установленные в разъёмы PCI Express. NVMf лишён многих недостатков iSCSI, повторяющего по сети SCSI-команды со всеми их издержками времён дисковых накопителей, и главное — позволяет по полной использовать возможности сетей с прямым доступом к оперативной памяти (RDMA). Таким образом, можно под управлением одного узла собрать сверхбыстрый и сверхотзывчивый пул блочных устройств, не прибегая к покупке дорогого флэш-массива. Но как воспользоваться этим пулом, не загубив теоретические показатели программными обёртками?
В докладе будут рассмотрены варианты применения NVMf для различных конфигураций PostgreSQL, Oracle Database, Hadoop, файловых хранилищ, о разработках в направлении «программно-определяемой памяти» с применением NVMe-устройств, доступных по сети, обсуждены текущие проблемы, ограничения и перспективы. Особое внимание будет уделено практическим способам измерения производительности ввода-вывода с учётом задачи, решаемой подсистемой хранения.
Максим Исаев, IBS. Практика использования комплекса Veritas NetBackup для мод...IBSМаксим Исаев, начальник отдела вычислительных платформ в компании IBS, выступил на Veritas Vision Solution Day 2016
Бинарные (файловые) хранилища: страшная сказка с мрачным концом / Даниил Подо...Ontico1. Вводная часть: базовые понятия и определения
1.1. Что такое “файл”
1.2. Роль файлов в современном мире, миф о ненужности файлов
1.3. Файловое хранилище АКА файловая система
1.3.1. внутреннее устройство
1.3.1.1. винтажные и журналируемые. зачем нужен журнал
1.3.1.2. плоские и иерархические
1.3.1.3. контроль доступа
1.3.2. POSIX
1.3.2.1. произвольное чтение
1.3.2.2. произвольная запись
1.3.2.3. атомарные операции
1.3.3. bells and whistles
1.3.3.1. сжатие, шифрование, дедупликация
1.3.3.2. snapshots
1.4. кеширование чтения и записи
2. HighLoad - это сеть
2.1. что вообще такое “HighLoad”, или “ведет ли кроилово к попадалову”
2.2. протоколы доступа: stateless и stateful
2.3. отказоустойчивость и ее двуличие
2.3.1. целостность данных
2.3.2. бесперебойные запись и чтение
2.4. Теорема CAP
3. Так в чем проблема?
3.1. Берем большую-пребольшую СХД и…
3.1.1. локальный кеш?!
3.1.2. конкурентная запись?!!
3.1.3. Берем OCFS2 и…
3.1.3.1. Как “падают виртуалки”?!
3.1.3.2. И почему так медленно?
3.1.4. А еще большую-пребольшую СХД довольно трудно получить в свое распоряжение
3.2. Берем CEPH/Lustre/LeoFS и…
3.2.1. Почему так медленно?!
3.2.2. Что значит “ребалансинг”?!
3.3. И немного о резервном копировании
3.3.1. Резервное копирование - это не отказоустойчивость
3.4. И снова про атомарные операции
3.5. Так почему все-таки нельзя просто сложить файлы в базу?
4. Что же делать?
4.1. В первую очередь это зависит от того, какова наша задача
4.1.1. А надо ли экономить?
4.1.2. POSIX - нужен ли он?
4.1.3. Большие файлы - нужны ли они?
4.1.4. Атомарные операции - нужны ли они?
4.1.5. Версионирование - нужно ли версионирование?
4.1.6. Насколько большим должно быть наше хранилище?
4.1.7. И собираемся ли мы удалять файлы?
4.1.8. И каков будет профиль нагрузки?
4.2. I’m feeling lucky - для некоторых сочет�
HDD, SSD, RAM, RAID, и кого на ком кэшировать / Михаил Конюхов (Perfect Solut...OnticoРассуждение, опыт, практика и примеры на тему производительности ввода-вывода.
Мы будем сравнивать "дефолтное" поведение SSD и HDD, сравним "недефолтное" поведение после тюнинга HDD. Я расскажу о плюсах и минусах в надежности HDD и SSD, о проблемах восстановления SSD и HDD после сбоев. Многие моменты будут посвящены кэшированию ввода-вывода, что очень помогает в реальных проектах.
Отдельная тема - оптимизация ФС и сервера для снижения количества операций ввода-вывода (IOPS), попробую оценить, что можно сделать с каким-нибудь проектом-примером.
Будут показаны и рассказаны реальные примеры из моего опыта оптимизации IO, я даже нарисую "карту принятия решения" для выбора накопителей для Вашего проекта.
Инфраструктура хранения для KADME WhereoilVsevolod ShabadОписание подходов "СетьПроекта" к построению инфраструктуры архива геолого-геофизических данных на платформе KADME Whereoil
Построение облачной СХД на базе ПО с открытым кодом (Ceph). Бюджетно и надёжноCloud IaaS Provider TuchaВыступление Владимира Мельника на Международном Гранд Форуме BIT-2016 в Киеве. Тема: "Построение облачной СХД на базе ПО с
открытым кодом (Ceph). Бюджетно и надёжно"
Opensource оптимизация инфраструктурных затратКРОКВебинар «Open-source: оптимизация инфраструктурных затрат» http://www.croc.ru/action/detail/29521/
Александр Беляев, Руководитель направления open-source решений в ИТ-инфраструктуре
Роман Баранов, Руководитель направления Analytics&BigData
Block Storage For VMs With CephThe Linux FoundationCeph is an open-source distributed storage system that provides object storage, block storage, and file storage functionality. It uses a technique called CRUSH to automatically distribute data across clusters of commodity servers and provide fault tolerance. Ceph block storage (RBD) can be used as reliable virtual disk images for virtual machines and containers, enabling features like live migration. RBD integration is currently being improved for better performance and compatibility with virtualization platforms like Xen and OpenStack.
Distributed Storage and Compute With Ceph's librados (Vault 2015)Sage WeilThe Ceph distributed storage system sports object, block, and file interfaces to a single storage cluster. These interface are built on a distributed object storage and compute platform called RADOS, which exports a conceptually simple yet powerful interface for storing and processing large amounts of data and is well-suited for backing web-scale applications and data analytics. In features a rich object model, efficient key/value storage, atomic transactions (including efficient compare-and-swap semantics), object cloning and other primitives for supporting snapshots, simple inter-client communication and coordination (ala Zookeeper), and the ability to extend the object interface using arbitrary code executed on the storage node. This talk will focus on librados API, how it is used, the security model, and some examples of RADOS classes implementing interesting functionality.
What's new in Jewel and BeyondSage WeilThis document summarizes new features and upcoming releases for Ceph. In the Jewel release in April 2016, CephFS became more stable with improvements to repair and disaster recovery tools. The BlueStore backend was introduced experimentally to replace Filestore. Future releases Kraken and Luminous will include multi-active MDS support for CephFS, erasure code overwrites for RBD, management tools, and continued optimizations for performance and scalability.
BlueStore: a new, faster storage backend for CephSage WeilBlueStore is a new storage backend for Ceph that provides faster performance compared to the existing FileStore backend. BlueStore stores metadata in RocksDB and data directly on block devices, avoiding double writes and improving transaction performance. It supports multiple storage tiers by allowing different components like the RocksDB WAL, database and object data to be placed on SSDs, HDDs or NVRAM as appropriate.
A crash course in CRUSHSage WeilCRUSH is the powerful, highly configurable algorithm Red Hat Ceph Storage uses to determine how data is stored across the many servers in a cluster. A healthy Red Hat Ceph Storage deployment depends on a properly configured CRUSH map. In this session, we will review the Red Hat Ceph Storage architecture and explain the purpose of CRUSH. Using example CRUSH maps, we will show you what works and what does not, and explain why.
Presented at Red Hat Summit 2016-06-29.
Ceph Intro and Architectural Overview by Ross TurkbuildacloudThis document provides an overview of Ceph architecture and introduces its key components. Ceph is an open-source distributed storage system that provides object, block, and file storage in a single unified storage cluster. It utilizes several unique technologies, including CRUSH for distributed object mapping, thin provisioning for efficient storage of block devices, and dynamic subtree partitioning for clustered metadata management. The document outlines Ceph's core components like RADOS, Librados, RBD, CephFS, and RADOS Gateway and how they work together to provide a scalable, reliable and distributed storage platform.
Your 1st Ceph clusterMirantisThis document provides an overview and planning guidelines for a first Ceph cluster. It discusses Ceph's object, block, and file storage capabilities and how it integrates with OpenStack. Hardware sizing examples are given for a 1 petabyte storage cluster with 500 VMs requiring 100 IOPS each. Specific lessons learned are also outlined, such as realistic IOPS expectations from HDD and SSD backends, recommended CPU and RAM per OSD, and best practices around networking and deployment.
Red Hat Ceph Storage Roadmap: January 2016Red_Hat_StorageAttendees of Red Hat Storage Day New York on 1/19/16 heard Red Hat's plans for its storage portfolio.
Ceph: Open Source Storage Software Optimizations on Intel® Architecture for C...Odinot StanislasAprès la petite intro sur le stockage distribué et la description de Ceph, Jian Zhang réalise dans cette présentation quelques benchmarks intéressants : tests séquentiels, tests random et surtout comparaison des résultats avant et après optimisations. Les paramètres de configuration touchés et optimisations (Large page numbers, Omap data sur un disque séparé, ...) apportent au minimum 2x de perf en plus.
Storage tiering and erasure coding in Ceph (SCaLE13x)Sage WeilCeph is designed around the assumption that all components of the system (disks, hosts, networks) can fail, and has traditionally leveraged replication to provide data durability and reliability. The CRUSH placement algorithm is used to allow failure domains to be defined across hosts, racks, rows, or datacenters, depending on the deployment scale and requirements.
Recent releases have added support for erasure coding, which can provide much higher data durability and lower storage overheads. However, in practice erasure codes have different performance characteristics than traditional replication and, under some workloads, come at some expense. At the same time, we have introduced a storage tiering infrastructure and cache pools that allow alternate hardware backends (like high-end flash) to be leveraged for active data sets while cold data are transparently migrated to slower backends. The combination of these two features enables a surprisingly broad range of new applications and deployment configurations.
This talk will cover a few Ceph fundamentals, discuss the new tiering and erasure coding features, and then discuss a variety of ways that the new capabilities can be leveraged.
Ceph, Now and Later: Our Plan for Open Unified Cloud StorageSage WeilCeph is a highly scalable open source distributed storage system that provides object, block, and file interfaces on a single platform. Although Ceph RBD block storage has dominated OpenStack deployments for several years, maturing object (S3, Swift, and librados) interfaces and stable CephFS (file) interfaces now make Ceph the only fully open source unified storage platform.
This talk will cover Ceph's architectural vision and project mission and how our approach differs from alternative approaches to storage in the OpenStack ecosystem. In particular, we will look at how our open development model dovetails well with OpenStack, how major contributors are advancing Ceph capabilities and performance at a rapid pace to adapt to new hardware types and deployment models, and what major features we are priotizing for the next few years to meet the needs of expanding cloud workloads.
BlueStore: a new, faster storage backend for CephSage WeilTraditionally Ceph has made use of local file systems like XFS or btrfs to store its data. However, the mismatch between the OSD's requirements and the POSIX interface provided by kernel file systems has a huge performance cost and requires a lot of complexity. BlueStore, an entirely new OSD storage backend, utilizes block devices directly, doubling performance for most workloads. This talk will cover the motivation a new backend, the design and implementation, the improved performance on HDDs, SSDs, and NVMe, and discuss some of the thornier issues we had to overcome when replacing tried and true kernel file systems with entirely new code running in userspace.
What you need to know about cephEmma Haruka IwaoIntroduction to Ceph, an open-source, massively scalable distributed file system.
This document explains the architecture of Ceph and integration with OpenStack.
NVMf: 5 млн IOPS по сети своими руками / Андрей Николаенко (IBS)OnticoВ выпуске 4.8 ядра Linux появилась поддержка NVMf (NVM Express over Fabrics) — стандартизованной возможности присоединять по сети как блочные устройства твердотельные накопители, установленные в разъёмы PCI Express. NVMf лишён многих недостатков iSCSI, повторяющего по сети SCSI-команды со всеми их издержками времён дисковых накопителей, и главное — позволяет по полной использовать возможности сетей с прямым доступом к оперативной памяти (RDMA). Таким образом, можно под управлением одного узла собрать сверхбыстрый и сверхотзывчивый пул блочных устройств, не прибегая к покупке дорогого флэш-массива. Но как воспользоваться этим пулом, не загубив теоретические показатели программными обёртками?
В докладе будут рассмотрены варианты применения NVMf для различных конфигураций PostgreSQL, Oracle Database, Hadoop, файловых хранилищ, о разработках в направлении «программно-определяемой памяти» с применением NVMe-устройств, доступных по сети, обсуждены текущие проблемы, ограничения и перспективы. Особое внимание будет уделено практическим способам измерения производительности ввода-вывода с учётом задачи, решаемой подсистемой хранения.
Эволюция программно-аппаратного обеспечения хранения фотографий в Badoo / Дми...OnticoНа примере нашей системы хранения фотографий мы хотим рассказать о проблемах, с которыми столкнулись в течение прошедших семи лет, связанных с ее программными и аппаратными компонентами, и о путях их решений.
В данном докладе речь пойдет о том, как сохранить независимость от поставщика и построить масштабируемую систему хранения с длительным сроком эксплуатации и способностью к оперативному внесению изменений в конфигурацию. Как сделать изменения на аппаратном уровне прозрачными для разработчиков, а также о том, как упростить развертывание и обслуживание.
В общих чертах изложен опыт и проблемы, которые мы получили в ходе эксплуатации классических мультиконтроллерных СХД. Основная тема - построение собственных хранилищ на базе общедоступных компонентов (полки, адаптеры, экспандеры, интерпозеры, диски, ЦПУ и т.д.) с потенциальной возможностью замены любого из выше перечисленного на другую модель. Дублирование критически важных узлов в рамках одной СХД. Обзор используемых транспортов - SRP, FC, iSCSI и описание того, каким образом можно быстро адаптировать такое хранилище под один или несколько транспортов, с минимальными вложениями. Обзор ПО для реализации СХД (SCST/LIO или проприетарные решения в области Software Defined Storage ). Автоматизация развертывания (инсталляция/управление с помощью Puppet). Тестирование перед вводом в эксплуатацию. Multipath I/O и упрощение именования экспортируемых блочных устройств. Политика составления наборов firmware для стабильной работы. Мониторинг. Расследование сбоев (Order of failure и т.п.).
Флеш в серверах: работа со скоростью вспышкиКРОКТест-драйв «Флеш в серверах: работа со скоростью вспышки» http://www.croc.ru/action/detail/29449/
Вадим Болотнов, менеджер по продвижению решений Департамента вычислительных систем КРОК
Обзор новых моделей EMC VNXКРОКВебинар «EMC VNX: преображение во флеш» http://www.croc.ru/action/detail/23755/
Презентация Александра Овчинникова, эксперта группы внедрения и эксплуатации СХД компании КРОК
Виртуализация систем хранения данных — новая стратегия управления даннымиКРОКСеминар КРОК 14 апреля 2016 г «Оптимизация ИТ-инфраструктуры»
Доклад «Виртуализация систем хранения данных — новая стратегия управления данными»
Игорь Бонев, технический менеджер КРОК
Подробнее http://www.croc.ru/action/webinars/61634/
Частные облака на уровне инфраструктуры. Аппаратные решенияКРОКСеминар «ITSM и частное «облако» — просто созданы друг для друга!» http://www.croc.ru/action/detail/23917/
Презентация Андрея Тищенко, заместителя директора департамента вычислительных систем по развитию продаж решений компании КРОК
Soft layer IBM Cloud platform and GPUEkaterina ShelestПрезентация IBM на бизнес-завтраке "Применение публичных облачных сервисов IBM для задач виртуализации и вычислений с помощью решений NVIDIA"
Дедупликацию в каждый ЦОДКРОКВебинар «Дедупликация vs Hеконтролируемый рост данных»
Подробнее о мероприятии http://www.croc.ru/action/detail/5668/
Презентация Дмитрия Дощаного, директора центра решений КРОК на базе технологий EMC
Новости гиперковергенцииCisco Russia Запись вебинара: http://ciscoclub.ru/novosti-giperkovergencii
В ходе доклада будут рассмотрены новые возможности гиперконвергентной платформы Cisco HyperFlex, включая расширенный функционал системного программного обеспечения, обновление аппаратной платформы, а также обзор новых валидированных дизайнов, существенно расширяющих спектр сценариев применения HyperFlex.
1. Совместимы ли понятия SDS и
производительность?
Чусавитин Михаил
Инженер отдела ЦОД, ЛАНИТ-Интеграция
2. План
• Вкратце о SDS
• Классификация
• Производительность,
эффективность
• Варианты использования
• Стоимость
3. Программно-определяемые СХД это:
• Гибкость:
– Поддержка любых типичных платформ (comodity hardware)
– Нет необходимости замены инфраструктуры (forklift upgrade)
– Рост по требованию (Pay-as-you-grow)
– Переназначение ресурсов «на лету»
• Сокращение затрат при использовании существующего
оборудования:
– Можно развернуть на существующей инфраструктуре
– Не займет дополнительного места в стойке
– «Вторая жизнь» старым серверам и СХД
• Интеграция с облачными решениями
4. Классификация
1. Классические SDS (CEPH, Gluster, ScaleIO):
– Устанавливаются на «все подряд»
– Scale-out архитектура, самоорганизация
– Практически любой уровень защиты данных
2. Основанные на коде традиционных СХД (DataONTAP Edge, HP
VSA, IBM XIV) :
– Обычно представлены в виде VM
– Интеграция с аппаратными решениями
3. Часть вычислительных комплексов (vSAN, Nutanix, PVE):
– Поставляются как модуль к гипервизору
4. Системы обработки и хранения больших данных (HDFS,
RiakCS)
– Поддержка MapReduce
– Последовательное чтение больших файлов
5. Программно-аппаратные решения (IBM SVC, HDS HCP):
– Предлагаются как готовые решения (appliance) без возможности
установки на стороннее оборудование
6. Преимущества архитектуры
• Полная децентрализация:
– Узлы сами общаются, следят друг за другом и реплицируют
данные
– Клиент сам вычисляет нужный узел
– Распределение данных по всем узлам кластера
– Восстановление и балансировка при изменении конфигурации:
«многие ко многим»
• Flash-кэш на чтение и на запись:
– SSD на каждом узле
– Отдельные full-flash узлы
• Настраиваемая политика резервирования:
– Репликация объектов (быстрое восстановление, меньшая емкость)
– Erasure Coding (медленное восстановление, большая емкость)
7. Недостатки архитектуры
• Накладные расходы на сеть, емкость и
производительность дисков
• На каждом узле все записи предварительно заносятся в
журнал, только потом переносятся на диск
• Каждый диск обслуживает сразу несколько параллельных
потоков (высокий seek time)
• Вся система работает поверх ЛВС:
– Необходимость в отдельной backend-сети
– Отсутствие стабильной поддержки Infiniband RDMA
• Собственные клиенты и протоколы:
– Полное отсутствие поддержки Microsoft Windows, VMware
– Нет нативной поддержки Fibre Channel, сырая поддержка iSCSI
12. Варианты эффективного
использования
• Хранение больших массивов информации
• Среды разработки и тестирования
• Виртуальная инфраструктура ЦОД
• Облачные вычисления и хостинг
• Консолидация СХД
14. Сравнительная стоимость решений
SDS и СХД
0.1$
0.3$
0.5$
0.7$
0.9$
1.1$
1.3$
1.5$
1.7$
1.9$
2.1$
Стоимость1ГБ
Емкость системы (ТБ)
СХД среднего уровня
Сервер среднего уровня
Сервер высокой
плотности
Дешевый сервер