Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
SlideShare a Scribd company logo
June 20101 QLogic Corporation
Сергей Перроте
serge.perrottet@qlogic.com
Territory Account Manager Russia
+7 916 993 3480
Ускорение работы приложений
кэширующими адаптерами сети
SAN
Host Products
Fibre Channel Adapters
Converged Network Adapters
Intelligent Ethernet Adapters
iSCSI Adapters
Network Products
Fibre Channel Switches
Converged Switches
Storage Routers
Silicon Products
Protocol Controllers
Converged Host Controllers
Converged Switch
Controllers
cLOMs
3
Продуктовый портфель QLogic :
November 2012
4
Продуктовый портфель Qlogic – свежие новости :
Customers Across a Multitude of Industries
November 20125
OEM
CHANNEL
END-USERS
А теперь о совсем новых технологиях:
Флэш / SSD кэширование
и сети SAN
QLogic
Performanc
e
Time
Классические СХД не дают снизить время доступа приложений к данным
QLogic7
Производительность
серверов и потребности
в IOPS
Производительность СХД
I/O
Performance
Gap
4. Требования к скорости ввода-вывода4. Требования к скорости ввода-вывода
2. Больше виртуальных машин2. Больше виртуальных машин
3. Больше приложений3. Больше приложений
5. Шпиндельные HDD не успевают5. Шпиндельные HDD не успевают
SSD помогают сократить разрыв между потребностями и возможностями
SS
D
1. Более мощные серверы1. Более мощные серверы
ЗА:ЗА:
Легко управлятьЛегко управлять
Легко устанавливатьЛегко устанавливать (HDD form factor)(HDD form factor)
Улучшает производительностьУлучшает производительность I/OI/O
ПРОТИВ:ПРОТИВ:
Далеко до процессора - латентностьДалеко до процессора - латентность
Ограничения связанные с контроллерами СХДОграничения связанные с контроллерами СХД
Ограниченный выигрыш в общейОграниченный выигрыш в общей
производительностипроизводительности
Storage cache / tierStorage cache / tierStorage cache / tierStorage cache / tier
Все решения по кэшированию в ЦОДах делятся на 3 класса
QLogic
September 10, 2012QLogic Confidential - Restrcted Distribution9
Server cacheServer cacheServer cacheServer cache
ЗА:ЗА:
Критически важные данные близко к приложениямКритически важные данные близко к приложениям
Лучше производительность и пропускная способностьЛучше производительность и пропускная способность
Косвенно улучшает производит. и использование СХДКосвенно улучшает производит. и использование СХД
ПРОТИВ:ПРОТИВ:
Больше драйверов – сложность и зависимостьБольше драйверов – сложность и зависимость
Кэшированные данные заперты в сервере =Кэшированные данные заперты в сервере = “DAS SSD”“DAS SSD”
•Кэш не виден какКэш не виден как Data LUNData LUN
•Не поддерживается кластеризация и виртуализацияНе поддерживается кластеризация и виртуализация
Кэширование на стороне серверов…
……решение не полноерешение не полное……
Что нужно, чтобы оптимизировать выигрыш и TCO
серверных SSD в сети SAN предприятия ?
Иллюстрация решения «Кэш на SSD в сервере»
• Больше драйверов
• Возможны проблемы
совместимости
• Потребляет больше ресурсов
сервера
• В реальной жизни на программных
смесях сложность резко возрастает
• Решение привязывает к
производителю оборудования SSD
• Требуется дополнительный адаптер
• Чем сложнее – тем дороже: как в
закупке, так и с точки зрения TCO
QLogic
Server
Приложения
Adapters
HBA driver SSD driver
Filter Driver / Agent
SAN LUN
SSDHBA
Представляем технологию
Mt. Rainier
QLogic
• Сервер видит только старый добрый адаптер FC
• Вся внутренняя кухня невидима и прозрачна для
сервера и его ОС
 Решение независимо от ОС и не вносит никаких
возмущений в существующую инфраструктуру
клиента
• Карты наделены интеллектом, позволяющим им
общаться друг с другом по SAN и образовывать
общий пул кэш-памяти на всем пространстве нод
кластера
 Кэш всех карт суммируется, решение линейно
масштабируется по кластеру
• BIOS поддерживает загрузку с SAN LUN локального
LUN созданного на SSD
QLogic
FabricCache – интеллектуальный кэширующий адаптер FC
ServerServer
Приложения
AdapterAdapter
HBA driver
SAN LUN
HBA
SSD
Это просто другой адаптер
QLE10522 / 10542-C-CK : интеграция FC HBA и SSD Flash
8GB Fibre
Channel Ports
8GB Fibre
Channel Ports
QLogic ASICQLogic ASIC
ARMH/Marvell
4 core
processor
ARMH/Marvell
4 core
processor
Viking SSD
Technology
200GB or 400GB
SLC Flash
Viking SSD
Technology
200GB or 400GB
SLC Flash
Управление как для обычногоУправление как для обычного HBAHBA
Прозрачно для приложений, независимо от OS, работает с любой архитектурой и сториждем
Соединение внешним кабелемl QLogic PCIe gen 4
Не задействуются ресурсы сервера и шины PCIe4-GB DDR3 Mem
NAND – Linux OS,
and FS 1 MB
NVSRAM
4-GB DDR3 Mem
NAND – Linux OS,
and FS 1 MB
NVSRAM
QLogic
Виртуализация и прозрачный кэш на множестве серверов
Server 2Server 2Server 1Server 1
Физическая
емкость кэша
одной карты
400GB400GB 400GB400GBРазделяемый пул
объединенной кэш-
памяти всех карт
800GB
Кэширование данных
для всех ВМ
50GB50GB 600GB 100GB
Кластер из 2-х серверов - ускорение в 4–6 раз (Transactions per Second)
с локальным или удаленным кэшом
Server - 32GB SQL memory Storage: 8Gb FC Дисковый массив класса MidRange 12 дисков 10K RPM
~6x
~4x
15
16 04/24/14
Servers TPC-E app
18x
7x
FC
SAN
Storage
FC Array
I/
O
I/
O
I/
O
I/
O
I/
O
I/
O
I/
O
I/
O
• 4-Dell PE R720 servers, Xeon E5-2640@2.5GHz, 24 cores, 32GB RAM
• FabricCache QLE10542 HBA
• Windows 2008
• HP EVA6300, 24-10K HDDs; 100GBx 7 LUN
Производительность масштабируется
Кластер на Oracle RAC: время реакции улучшилось на 82%
17
SAN
Core
OS
Генератор нагрузки Swingbench
50% Sales Rep History Query
30% Warehouse Activity Query
20% Browse Order, Warehouse Query
OS
Генератор нагрузки Swingbench
50% Sales Rep History Query
30% Warehouse Activity Query
20% Browse Order, Warehouse Query
2-Node RAC 11gR2 (11.2.0.3 ))
Intel Xeon E7 servers 2 * 6-core , 198GB RAM
QLE10000 SSD HBA
146GB Pillar Axiom SAN Storage 15krpm HDDs
Concurrent Users: 1,000
Disk IOPs – кэширование снизило дисковый трафик в IOPS в 8 раз: с 8,000 IOPS до 1,000.
Disk MB/s – дисковый трафик в MB/sec снизился на 40%
Время отклика – для среднего уровня нагрузки снизилось на 57% с 6.7 сек без кэша до 2.9 сек с
кэшом. Для пиковой нагрузки время отклика снизилось на 82% с 56.9 сек до 10.2 сек.
Широкий диапазон применения, много сценариев
QLogic
Приложения Web 2.0
с большой нагрузкой по I/O с небольшими рабочими наборами данных
Виртуализованные приложения (мультисерверные)
Виртуальные среды: VMware, Hyper-V и Citrix включая кластеры
(ESX clusters) разделяющие множество физических серверов
Кластеризованные приложения
Кластерные ОС: MSCS, HPUX и Solaris
Кластерные приложения: Oracle RAC and DB2-Pure Scale
Сегодняшние решения
на основе SSD кэша в
сервере
Приложения: реального времени, критически важные, с высокой
интенсивностью I/O, с высоким потреблением ресурсов, требующие
максимальной скорости транзакций и минимального времени отклика:
OLTP, аналитика, Data Warehousing, моделирование и
т.д.
Mt. Rainier
SS
D
Улучшение производительности многих приложенийУлучшение производительности многих приложений == высокая ценность решениявысокая ценность решения
Вопросы ?
QLogic Corporation20 June 2010

More Related Content

С. Перроте (Q Logic) Ускорение работы приложений

  • 1. June 20101 QLogic Corporation Сергей Перроте serge.perrottet@qlogic.com Territory Account Manager Russia +7 916 993 3480 Ускорение работы приложений кэширующими адаптерами сети SAN
  • 2. Host Products Fibre Channel Adapters Converged Network Adapters Intelligent Ethernet Adapters iSCSI Adapters Network Products Fibre Channel Switches Converged Switches Storage Routers Silicon Products Protocol Controllers Converged Host Controllers Converged Switch Controllers cLOMs 3 Продуктовый портфель QLogic : November 2012
  • 3. 4 Продуктовый портфель Qlogic – свежие новости :
  • 4. Customers Across a Multitude of Industries November 20125 OEM CHANNEL END-USERS
  • 5. А теперь о совсем новых технологиях: Флэш / SSD кэширование и сети SAN QLogic
  • 6. Performanc e Time Классические СХД не дают снизить время доступа приложений к данным QLogic7 Производительность серверов и потребности в IOPS Производительность СХД I/O Performance Gap 4. Требования к скорости ввода-вывода4. Требования к скорости ввода-вывода 2. Больше виртуальных машин2. Больше виртуальных машин 3. Больше приложений3. Больше приложений 5. Шпиндельные HDD не успевают5. Шпиндельные HDD не успевают SSD помогают сократить разрыв между потребностями и возможностями SS D 1. Более мощные серверы1. Более мощные серверы
  • 7. ЗА:ЗА: Легко управлятьЛегко управлять Легко устанавливатьЛегко устанавливать (HDD form factor)(HDD form factor) Улучшает производительностьУлучшает производительность I/OI/O ПРОТИВ:ПРОТИВ: Далеко до процессора - латентностьДалеко до процессора - латентность Ограничения связанные с контроллерами СХДОграничения связанные с контроллерами СХД Ограниченный выигрыш в общейОграниченный выигрыш в общей производительностипроизводительности Storage cache / tierStorage cache / tierStorage cache / tierStorage cache / tier Все решения по кэшированию в ЦОДах делятся на 3 класса QLogic
  • 8. September 10, 2012QLogic Confidential - Restrcted Distribution9 Server cacheServer cacheServer cacheServer cache ЗА:ЗА: Критически важные данные близко к приложениямКритически важные данные близко к приложениям Лучше производительность и пропускная способностьЛучше производительность и пропускная способность Косвенно улучшает производит. и использование СХДКосвенно улучшает производит. и использование СХД ПРОТИВ:ПРОТИВ: Больше драйверов – сложность и зависимостьБольше драйверов – сложность и зависимость Кэшированные данные заперты в сервере =Кэшированные данные заперты в сервере = “DAS SSD”“DAS SSD” •Кэш не виден какКэш не виден как Data LUNData LUN •Не поддерживается кластеризация и виртуализацияНе поддерживается кластеризация и виртуализация Кэширование на стороне серверов… ……решение не полноерешение не полное…… Что нужно, чтобы оптимизировать выигрыш и TCO серверных SSD в сети SAN предприятия ?
  • 9. Иллюстрация решения «Кэш на SSD в сервере» • Больше драйверов • Возможны проблемы совместимости • Потребляет больше ресурсов сервера • В реальной жизни на программных смесях сложность резко возрастает • Решение привязывает к производителю оборудования SSD • Требуется дополнительный адаптер • Чем сложнее – тем дороже: как в закупке, так и с точки зрения TCO QLogic Server Приложения Adapters HBA driver SSD driver Filter Driver / Agent SAN LUN SSDHBA
  • 11. • Сервер видит только старый добрый адаптер FC • Вся внутренняя кухня невидима и прозрачна для сервера и его ОС  Решение независимо от ОС и не вносит никаких возмущений в существующую инфраструктуру клиента • Карты наделены интеллектом, позволяющим им общаться друг с другом по SAN и образовывать общий пул кэш-памяти на всем пространстве нод кластера  Кэш всех карт суммируется, решение линейно масштабируется по кластеру • BIOS поддерживает загрузку с SAN LUN локального LUN созданного на SSD QLogic FabricCache – интеллектуальный кэширующий адаптер FC ServerServer Приложения AdapterAdapter HBA driver SAN LUN HBA SSD Это просто другой адаптер
  • 12. QLE10522 / 10542-C-CK : интеграция FC HBA и SSD Flash 8GB Fibre Channel Ports 8GB Fibre Channel Ports QLogic ASICQLogic ASIC ARMH/Marvell 4 core processor ARMH/Marvell 4 core processor Viking SSD Technology 200GB or 400GB SLC Flash Viking SSD Technology 200GB or 400GB SLC Flash Управление как для обычногоУправление как для обычного HBAHBA Прозрачно для приложений, независимо от OS, работает с любой архитектурой и сториждем Соединение внешним кабелемl QLogic PCIe gen 4 Не задействуются ресурсы сервера и шины PCIe4-GB DDR3 Mem NAND – Linux OS, and FS 1 MB NVSRAM 4-GB DDR3 Mem NAND – Linux OS, and FS 1 MB NVSRAM
  • 13. QLogic Виртуализация и прозрачный кэш на множестве серверов Server 2Server 2Server 1Server 1 Физическая емкость кэша одной карты 400GB400GB 400GB400GBРазделяемый пул объединенной кэш- памяти всех карт 800GB Кэширование данных для всех ВМ 50GB50GB 600GB 100GB
  • 14. Кластер из 2-х серверов - ускорение в 4–6 раз (Transactions per Second) с локальным или удаленным кэшом Server - 32GB SQL memory Storage: 8Gb FC Дисковый массив класса MidRange 12 дисков 10K RPM ~6x ~4x 15
  • 15. 16 04/24/14 Servers TPC-E app 18x 7x FC SAN Storage FC Array I/ O I/ O I/ O I/ O I/ O I/ O I/ O I/ O • 4-Dell PE R720 servers, Xeon E5-2640@2.5GHz, 24 cores, 32GB RAM • FabricCache QLE10542 HBA • Windows 2008 • HP EVA6300, 24-10K HDDs; 100GBx 7 LUN Производительность масштабируется
  • 16. Кластер на Oracle RAC: время реакции улучшилось на 82% 17 SAN Core OS Генератор нагрузки Swingbench 50% Sales Rep History Query 30% Warehouse Activity Query 20% Browse Order, Warehouse Query OS Генератор нагрузки Swingbench 50% Sales Rep History Query 30% Warehouse Activity Query 20% Browse Order, Warehouse Query 2-Node RAC 11gR2 (11.2.0.3 )) Intel Xeon E7 servers 2 * 6-core , 198GB RAM QLE10000 SSD HBA 146GB Pillar Axiom SAN Storage 15krpm HDDs Concurrent Users: 1,000 Disk IOPs – кэширование снизило дисковый трафик в IOPS в 8 раз: с 8,000 IOPS до 1,000. Disk MB/s – дисковый трафик в MB/sec снизился на 40% Время отклика – для среднего уровня нагрузки снизилось на 57% с 6.7 сек без кэша до 2.9 сек с кэшом. Для пиковой нагрузки время отклика снизилось на 82% с 56.9 сек до 10.2 сек.
  • 17. Широкий диапазон применения, много сценариев QLogic Приложения Web 2.0 с большой нагрузкой по I/O с небольшими рабочими наборами данных Виртуализованные приложения (мультисерверные) Виртуальные среды: VMware, Hyper-V и Citrix включая кластеры (ESX clusters) разделяющие множество физических серверов Кластеризованные приложения Кластерные ОС: MSCS, HPUX и Solaris Кластерные приложения: Oracle RAC and DB2-Pure Scale Сегодняшние решения на основе SSD кэша в сервере Приложения: реального времени, критически важные, с высокой интенсивностью I/O, с высоким потреблением ресурсов, требующие максимальной скорости транзакций и минимального времени отклика: OLTP, аналитика, Data Warehousing, моделирование и т.д. Mt. Rainier SS D Улучшение производительности многих приложенийУлучшение производительности многих приложений == высокая ценность решениявысокая ценность решения

Editor's Notes

  1. Today I’d like to provide you with an overall update on QLogic, our product and technology direction and our overall state of business operations. I’d like to make this a very interactive, collaborative and open discussion, so please feel free to ask questions throughout the course of this presentation.
  2. Higher bandwidth networks and high performance servers with increasing core densities are driving more server virtualization. Performance hungry business critical applications like OTLP, ERP, Analytics, Mail server, web 2.0, VDI are driving more demand on storage I/O. Increased server performance (core density, functional integration) = Increasing “IO Intensity” = Demanding more transactions and less waiting, want Lower latency and response time: more data = more revenue (SLAs!)…effects the bottom line Disks are getting bigger, not faster, driving a large I/O performance gap, impacting the application response time, no improvement in TPS. In recent years, with emergence of affordable and reliable SSD technology, Storage I/O Performance gap is being addressed. SSDs provide very high performance for a small, random IO workloads, driven by the enterprise applications. Thus, SSD technology can be an effective solution to the I/O performance gap problem. Enterprise applications are clustered and virtualized Faster application response time results in increased productivity, and improved customer experience SSD technology can play a pivotal role in solving the IO performance gap problem which is inhibiting the applications ability to deliver faster responses. Let’s look at how different solutions using SSD technology are evolving to solve this problem……….
  3. Considering the need for shared Data model, early solutions used SSDs in the Storage array controller. Simple to manage and implement. Data remained shared, available and protected. IO Performance improved BUT…. Multiple network hops between server and storage array controller and bottlenecks in the storage array controllers themselves could not realize the true SSD performance. Therefore, the next step in evolution was to……….
  4. ……Deploy SSDs in the server and use them as cache. It brought critical Data close to the application, performance benefits are fully realized!!!!!!. BUT…… More SW added to the server to manage the cache tier, it became more complex. Captive cache in a server broke the “shared data” data model. Even with great performance benefit this step remains incomplete as it breaks the “shared data model”. We said, Enterprise applications require shared Data model and high performance. Let’s look at what is required to keep the benefits of SAN and gain the benefits of SSDs while managing the TCO.
  5. Read slide title Accelerated Caching for a Server Cache Shared Data Lun Multi Server…..
  6. Thank you for your time today and thank you for your interest in QLogic and our broad portfolio of networking solutions.