<?xml version='1.0' encoding='UTF-8'?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:openSearch="http://a9.com/-/spec/opensearchrss/1.0/" xmlns:blogger="http://schemas.google.com/blogger/2008" xmlns:georss="http://www.georss.org/georss" xmlns:gd="http://schemas.google.com/g/2005" xmlns:thr="http://purl.org/syndication/thread/1.0" version="2.0"><channel><atom:id>tag:blogger.com,1999:blog-2438953522048353315</atom:id><lastBuildDate>Thu, 29 Aug 2024 04:13:29 +0000</lastBuildDate><category>IBM</category><category>vmware</category><category>virtualization</category><category>RAID</category><category>HP</category><category>netapp</category><category>storage</category><category>EMC</category><category>SSD</category><category>microsoft</category><category>SVC</category><category>fun</category><category>hyper-v</category><category>Adaptec</category><category>HDS</category><category>3PAR</category><category>LSI</category><category>DELL</category><category>firmware</category><category>thin provisioning</category><category>Blade</category><category>DS3500</category><category>sanbolic</category><category>AutoVirt</category><category>BladeCenter</category><category>SAN Volume Controller</category><category>SUN</category><category>Storwize</category><category>V7000</category><category>iSCSI</category><category>DFS</category><category>DS4000</category><category>DS5000</category><category>FCoE</category><category>SAS</category><category>Veeam</category><category>citrix</category><category>fileserver</category><category>meliofs</category><category>oracle</category><category>AFA</category><category>BBU</category><category>DS3000</category><category>Data ONTAP</category><category>DataDomain</category><category>EVO:RAIL</category><category>Fusion IO</category><category>Infortrend</category><category>NAS</category><category>SDS</category><category>SPC</category><category>ZMCP</category><category>backup</category><category>brocade</category><category>falconstor</category><category>global filesystem</category><category>hyperconverged</category><category>supermicro</category><category>vSMP</category><category>xen</category><category>xyratex</category><category>книги</category><category>раздумья</category><category>BNT</category><category>DCS3700</category><category>ESVA</category><category>FlashCache</category><category>FlashSystem</category><category>HS22</category><category>Itanium</category><category>KVM</category><category>LUN</category><category>MetroCluster</category><category>PMC-Sierra</category><category>SATA</category><category>ScaleMP</category><category>Spectrum</category><category>Tandberg</category><category>Tivoli</category><category>V3700</category><category>VAAI</category><category>VASA Provider</category><category>VTL</category><category>VVol</category><category>Varonis</category><category>XIV</category><category>appliance</category><category>cisco</category><category>cluster</category><category>datacenter</category><category>deduplication</category><category>disaster recovery</category><category>easy tier</category><category>nehalem</category><category>open source</category><category>redbook</category><category>snapshot</category><category>vkernel</category><category>восстановление данных</category><category>мотивация сотрудников</category><category>сервер</category><category>экспандер</category><category>3Ware</category><category>6805</category><category>ALUA</category><category>AMD</category><category>AMS2000</category><category>Aruba Networks</category><category>CapacityIQ</category><category>Compellent</category><category>DDP</category><category>DS8800</category><category>DatAdvantage</category><category>DatAnswers</category><category>DataCore</category><category>DataSlide</category><category>Docker</category><category>DotHill</category><category>Dynamic Provisioning</category><category>EMC VNX</category><category>Emulex</category><category>Exadata</category><category>FAST</category><category>FC</category><category>FC errors</category><category>Fibre Channel</category><category>FlashVolume</category><category>FlexClone</category><category>GPFS</category><category>HP Virtual Connect for Dummies</category><category>HPC</category><category>HRD</category><category>HS22V</category><category>Huawei</category><category>IBRIX</category><category>IDU</category><category>InfiniFlash</category><category>Intel Xeon</category><category>LTFS</category><category>LeftHand</category><category>Lenovo</category><category>Linux</category><category>MAT4Shift</category><category>MED-V</category><category>NVIDIA</category><category>Nexenta</category><category>OnCommand</category><category>Protocol Endpoint</category><category>Qlogic</category><category>RedHat</category><category>Rittal</category><category>SANsymphony</category><category>SCSI Decoder</category><category>SCSI errros</category><category>SDN</category><category>SMP</category><category>SPBM</category><category>SPEC</category><category>SRM</category><category>Sandisk</category><category>Shift</category><category>StoreOnce</category><category>StoreVirtual</category><category>TED</category><category>TMS</category><category>TPC for Disk</category><category>Tesla</category><category>ThinApp</category><category>VFCache</category><category>VMAX</category><category>VPLEX</category><category>VSA</category><category>VSAN</category><category>VSC</category><category>VSPEX BLUE</category><category>VSR</category><category>Virtual Coneect</category><category>WSS</category><category>ZFS</category><category>Zscaler</category><category>big data</category><category>cDOT</category><category>capacity modeler</category><category>ceph</category><category>cloud</category><category>cloud service</category><category>consistency check</category><category>container</category><category>converged system</category><category>drobo</category><category>dynamic disk pooling</category><category>expander</category><category>flash</category><category>hadoop</category><category>high availability</category><category>networking</category><category>nss</category><category>power7</category><category>powerpoint</category><category>rebuild</category><category>remap</category><category>sizing</category><category>spam</category><category>stripe</category><category>tiering</category><category>unstructured data</category><category>wide striping</category><category>windows 2003</category><category>wireless</category><category>грамота</category><category>миграция</category><category>презентация</category><category>резервное копирование</category><category>семинар</category><category>утилиты</category><title>Useful(less) notes</title><description>Просто &quot;заметки на полях&quot; - в основном, новости из мира систем хранения данных, виртуализации серверов, СХД и т.п.</description><link>http://exlh.blogspot.com/</link><managingEditor>noreply@blogger.com (Andrew Ivanov)</managingEditor><generator>Blogger</generator><openSearch:totalResults>202</openSearch:totalResults><openSearch:startIndex>1</openSearch:startIndex><openSearch:itemsPerPage>25</openSearch:itemsPerPage><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7230877769157984621</guid><pubDate>Wed, 24 Jun 2015 06:38:00 +0000</pubDate><atom:updated>2015-06-24T09:38:03.009+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">Lenovo</category><category domain="http://www.blogger.com/atom/ns#">RAID</category><category domain="http://www.blogger.com/atom/ns#">SSD</category><category domain="http://www.blogger.com/atom/ns#">storage</category><category domain="http://www.blogger.com/atom/ns#">thin provisioning</category><category domain="http://www.blogger.com/atom/ns#">tiering</category><category domain="http://www.blogger.com/atom/ns#">wide striping</category><title>СХД начального уровня от Lenovo -  S2200 и S3200</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Компания Lenovo недавно представила две новые дисковые системы S2200 и S3200. Рассчитаны они, прежде всего, на малый бизнес. Конкуренция на этом рынке довольно активная - среди наиболее активных игроков HP с системами MSA, Dell с MD3, NetApp E2700 и FAS2500, EMC VNXe, IBM V3700 и целый ряд B-брендов.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если посмотреть на характеристики объявленных новинок, то мы увидим классическую архитектуру двухконтроллерного массива, который масштабируется вертикально (за счет добавления дисковых полок). Для S2200 максимальное количество дисков составляет 96 (контроллерный модуль и 3 полки по 24 диска), для S3200 максимум можно подключить 192 диска (контроллерный модуль и 7 полок по 24 диска). Если использовать полки с дисками 3.5&quot; (по 12 дисков на полку), то максимальное число дисков будет 48 и 96, соответственно.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Технические подробности, сравнение систем друг с другом, а также с аналогом от HP - в полной версии статьи по &lt;a href=&quot;http://blog.trinitygroup.ru/2015/06/lenovo-s2200-s3200.html&quot; target=&quot;_blank&quot;&gt;ссылке&lt;/a&gt;.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/06/lenovo-s2200-s3200.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7540374348164818256</guid><pubDate>Wed, 24 Jun 2015 06:33:00 +0000</pubDate><atom:updated>2015-06-24T09:33:32.693+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">3PAR</category><category domain="http://www.blogger.com/atom/ns#">AFA</category><category domain="http://www.blogger.com/atom/ns#">deduplication</category><category domain="http://www.blogger.com/atom/ns#">disaster recovery</category><category domain="http://www.blogger.com/atom/ns#">HP</category><category domain="http://www.blogger.com/atom/ns#">storage</category><category domain="http://www.blogger.com/atom/ns#">thin provisioning</category><title>Новый лидер от HP - 3PAR 20000</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так уж сложилось, что меня ангажировали писать в другой &lt;a href=&quot;http://blog.trinitygroup.ru/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;блог&lt;/a&gt;, поэтому здесь на часть заметок будет только анонс и ссылка на оригинальный текст.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
На прошедшей конференции HP Discover была объявлена новая high-end система HP 3PAR 20000 (модель 20800 поддерживает и ssd, и обычные диски, а модель 20850 - только ssd). По сравнению с 3PAR 10000, изменений довольно много (в ознаменование этого и номер модели поменялся в 2 раза), система стала не только заметно производительнее, а также избавилась от рудиментарного fibre channel в качестве интерконнекта между контроллерами и дисковыми полками. С учетом того, что &quot;десятитысячник&quot; уже давно просился на покой, я даже немного удивлен, что этот анонс произошел сейчас, а не в прошлом году.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Некоторые подробности про две новые системы по &lt;a href=&quot;http://blog.trinitygroup.ru/2015/06/3par-10000-high-end-hp-3par-20000.html&quot; target=&quot;_blank&quot;&gt;ссылке&lt;/a&gt;.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/06/hp-3par-20000.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-5132281652426820599</guid><pubDate>Mon, 18 May 2015 08:00:00 +0000</pubDate><atom:updated>2023-06-21T20:11:27.673+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">FlexClone</category><category domain="http://www.blogger.com/atom/ns#">hyper-v</category><category domain="http://www.blogger.com/atom/ns#">MAT4Shift</category><category domain="http://www.blogger.com/atom/ns#">netapp</category><category domain="http://www.blogger.com/atom/ns#">OnCommand</category><category domain="http://www.blogger.com/atom/ns#">Shift</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><category domain="http://www.blogger.com/atom/ns#">миграция</category><title>OnCommand Shift туда и обратно</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В инфраструктуре из нескольких серверов задача миграции виртуальных машин между гипервизорами если и возникает, то редко и разово. А вот если счет серверов идет на десятки, то вероятность параллельного использования двух гипервизоров весьма высока - кто-то это делает для экономии на лицензиях, кто-то чтобы не класть все яйца в одну корзину. И &amp;nbsp;миграция виртуальных машин между Hyper-V и VMware может оказаться непростой задачей.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Уже некоторое время существует решение для ускоренной миграции из VMware в Hyper-V, &amp;nbsp; разработанное с участием NetApp - &lt;a href=&quot;https://gallery.technet.microsoft.com/MAT-powered-by-Shift-343f242d&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;MAT4Shift&lt;/a&gt;. Основная сложность в миграции - необходимость конвертировать диск с данными, а это требует существенных затрат времени (и ресурсов СХД). Если использовать только MAT (Microsoft Automation Toolkit), миграция 1ТБ диска может занять несколько часов. MAT4Shift за счет использования технологии FlexClone в СХД (да-да, конечно требуется не только утилита, но и СХД NetApp FAS) позволяет радикально сократить время миграции. Скорость возрастает, так как фактически не происходит конвертации данных, изменяются только заголовки и метаданные, после этого VMDK “превращается” в VHDX диск. Утилита также удаляет vmware tools и вносит необходимые изменения в настройки сетевых интерфейсов и VLAN. Время миграции виртуальной машины из VMware в Hyper-V сокращается от нескольких часов до всего нескольких минут.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgKbrGptexrG5kshuPSo4P99Xqa2VZazbh3o7MJurqKfeV2LvgPylAkJ_4Kcwlyuy3OmOVDVZprfVHj8-Afld2uzVcL9ex_p1U8jrQBOcpNRjPADQ8p_x1Pp1qyCtjAlZm-fLIJYef21SM/s1600/OnCommand_Shift.jpg&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;OnCommand Shift migration&quot; border=&quot;0&quot; height=&quot;235&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgKbrGptexrG5kshuPSo4P99Xqa2VZazbh3o7MJurqKfeV2LvgPylAkJ_4Kcwlyuy3OmOVDVZprfVHj8-Afld2uzVcL9ex_p1U8jrQBOcpNRjPADQ8p_x1Pp1qyCtjAlZm-fLIJYef21SM/s400/OnCommand_Shift.jpg&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Несмотря на достигнутые результаты, хочется еще, как минимум, конвертировать VM и из Hyper-V в VMware. Чтобы закрыть вопрос миграции в гетерогенной виртуальной среде, NetApp выпустил отдельный продукт -&amp;nbsp;&lt;a href=&quot;http://www.netapp.com/us/products/management-software/oncommand-shift.aspx&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;NetApp&amp;nbsp;OnCommand&amp;nbsp;Shift&lt;/a&gt;. Именно благодаря ему можно без лишних затрат времени и при минимальном участии администраторов производить миграции VM из VMware в Hyper-V и наоборот.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как же осуществляется миграция?&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;ПО собирает данные о настройках виртуальной машины, которые необходимо будет воспроизвести после миграции.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Создается клон виртуальной машины (технология FlexClone в СХД NetApp FAS). Независимо от размера диска VM, процесс клонирования происходит практически мгновенно.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Происходит автоматизированное удаление утилит (VMware tools или Hyper-V Integration tools).&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Дальше некоторое время требуется для настоящей магии - замены метаданных и заголовков в снимке диска (VMDK/VHDX). Сами данные не изменяются, а так как объем метаданных сравнительно небольшой, время конвертации диска мало зависит от размера исходных данных.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Если необходимо, устанавливается новый набор утилит.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Переносятся настройки, сохраненные на первом этапе. После миграции будут сохранены все сетевые настройки, подключения к VLAN и названия сетевых подключений.&amp;nbsp;&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&amp;nbsp;&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если нужно перенести не одну, а сразу несколько VM, автоматизировать процесс поможет модуль OnCommand&amp;nbsp;Shift&amp;nbsp;PowerShell.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Еще одним преимуществом OnCommand Shift является то, что у нас нет необходимости в двукратном увеличении дискового пространства - данные в новом формате занимают те же самые блоки, что и данные до миграции. Это может быть достаточно важно при планировании массовых миграций.&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Поддерживаемые гипервизоры: VMware ESXi 5.0 и выше, Microsoft Windows Server 2008R2 Hyper-V и выше. На NetApp должна быть установлена Clustered Data ONTAP 8.2 и выше, также потребуется создать виртуальную машину (требования самые скромные), в которой и будет выполняться OnCommand Shift.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Да, все это бесплатно, но работает только для владельцев СХД NetApp - остальным придется либо тратить на миграцию больше времени, либо искать альтернативы (про которые я, впрочем, пока не слышал).&lt;/div&gt;
&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/05/oncommand-shift.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgKbrGptexrG5kshuPSo4P99Xqa2VZazbh3o7MJurqKfeV2LvgPylAkJ_4Kcwlyuy3OmOVDVZprfVHj8-Afld2uzVcL9ex_p1U8jrQBOcpNRjPADQ8p_x1Pp1qyCtjAlZm-fLIJYef21SM/s72-c/OnCommand_Shift.jpg" height="72" width="72"/><thr:total>5</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7443300524683664037</guid><pubDate>Fri, 24 Apr 2015 05:00:00 +0000</pubDate><atom:updated>2015-04-24T08:00:05.997+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">backup</category><category domain="http://www.blogger.com/atom/ns#">deduplication</category><category domain="http://www.blogger.com/atom/ns#">HP</category><category domain="http://www.blogger.com/atom/ns#">StoreOnce</category><category domain="http://www.blogger.com/atom/ns#">VSA</category><category domain="http://www.blogger.com/atom/ns#">VTL</category><title>HP StoreOnce VSA - теперь и бесплатно!</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как получить бесплатную систему дедубликации для хранения резервных копий совершенно бесплатно? Сейчас&amp;nbsp;— запросто! HP&amp;nbsp;раздает всем желающим лицензии на&amp;nbsp;1ТБ StoreOnce VSA абсолютно бесплатно, то&amp;nbsp;есть даром! Выпущены версии для всех наиболее распространенных гипервизоров: VMware, &lt;nobr&gt;Hyper-V&lt;/nobr&gt; и&amp;nbsp;KVM.&lt;br /&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7McxWPjdJDxiTP7DURRfcUBbHJoCbOxueFcKeTrddRb8NphCoudUDqELlRAf-V2wEnBnGKMJWWsJzEX9uQoxEcVvZjjA74aKdEtF3uHbOY9zZ_B-1a5R0j2XqMQK7gYfI2Hkjdqe9M3s/s1600/storeonce_vsa.jpg&quot; imageanchor=&quot;1&quot; style=&quot;clear: left; float: left; margin-bottom: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;StoreOnce VSA icon&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7McxWPjdJDxiTP7DURRfcUBbHJoCbOxueFcKeTrddRb8NphCoudUDqELlRAf-V2wEnBnGKMJWWsJzEX9uQoxEcVvZjjA74aKdEtF3uHbOY9zZ_B-1a5R0j2XqMQK7gYfI2Hkjdqe9M3s/s1600/storeonce_vsa.jpg&quot; height=&quot;142&quot; title=&quot;&quot; width=&quot;200&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;span style=&quot;text-align: justify;&quot;&gt;Уже довольно давно (я&amp;nbsp;и&amp;nbsp;про это упоминал &lt;a href=&quot;http://exlh.blogspot.com/2015/03/lefthand-os-12.html&quot; target=&quot;_blank&quot;&gt;здесь&lt;/a&gt;) можно получить в&amp;nbsp;совершенно бесплатное использование лицензию на&amp;nbsp;1ТБ дискового пространства HP&amp;nbsp;StoreVirtual VSA. Это отличный старт для экспериментов, для пилотных инсталляций, когда еще нет больших требований к&amp;nbsp;объему дисков. Бесплатный 1ТБ StoreVirtual VSA вполне может даже стать неплохой основой своего рода &lt;/span&gt;&lt;nobr style=&quot;text-align: justify;&quot;&gt;«микро-конвергентного»&lt;/nobr&gt;&lt;span style=&quot;text-align: justify;&quot;&gt; решения для филиала, где стоит задача минимизировать простой при сбоях, но&amp;nbsp;нет возможности строить серьезное решение. Теперь программную систему хранения данных можно дополнить программной системой хранения резервных копий.&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Минимальные требования для установки: 2&amp;nbsp;x&amp;nbsp;vCPU (2.2GHz), 16GB vRAM. Ничего запредельного.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Поддерживаются все популярные программы резервного копирования. Детальный список можно найти здесь: &lt;a href=&quot;http://www.hp.com/go/ebs&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;www.hp.com/go/ebs&lt;/a&gt; Думаю, что при некотором желании можно запустить и&amp;nbsp;&lt;nobr&gt;что-то&lt;/nobr&gt; типа бесплатной Bacula&amp;nbsp;— StoreOnce можно настроить как VTL, NFS, CIFS или Catalist target.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Обратите внимание, что никто не&amp;nbsp;запрещает использовать бесплатную лицензию в&amp;nbsp;продуктивной среде&amp;nbsp;— это плюс. Важно помнить, что никакой технической поддержки ждать не&amp;nbsp;стоит&amp;nbsp;— она предназначается для владельцев коммерческих лицензий. Еще одно, последнее ограничение бесплатной версии&amp;nbsp;— нельзя расширить объем свыше 1ТБ, но&amp;nbsp;можно без проблем «проапгрейдить» систему до&amp;nbsp;коммерческой лицензии и&amp;nbsp;получить 4ТБ, 10ТБ или даже 50ТБ. Апгрейд проходит совершенно прозрачно для уже сохраненных данных&amp;nbsp;— они продолжают быть доступны для восстановления при аварии. А&amp;nbsp;если и&amp;nbsp;этого мало, то&amp;nbsp;пора переходить на&amp;nbsp;аппаратную реализацию, где объемы могут достигать сотни ТБ, а&amp;nbsp;скорости десятков ТБ&amp;nbsp;в&amp;nbsp;час.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Важно заметить, что 1ТБ это «честный» объем&amp;nbsp;— после дедубликации, а&amp;nbsp;так как система предназначена для хранения бэкапов, то&amp;nbsp;фактический полезный объем, при степени дедубликации 1:20, составит уже 20ТБ.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Остальной функционал полной версии доступен и&amp;nbsp;для бесплатных пользователей. Среди интересных возможностей&amp;nbsp;— шифрование данные и&amp;nbsp;поддержка репликации (можно например установить в&amp;nbsp;филиале, если на&amp;nbsp;центральной площадке уже используется StoreOnce).&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiuLE2w31NRjbeQZfLlZBIC-FQZCeGT497_UfrIbEyfKAQGjI22n4b7ka1-kYnFn2cIyMzaN_4nHht40ZRRJtPWRHZDUbfmytP-55VTFHPyqM6ONTEAW8xvQhCUuW2DFaJc3oSRTwvGCy4/s1600/midnight.png&quot; imageanchor=&quot;1&quot; style=&quot;clear: left; float: left; margin-bottom: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;полночь&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiuLE2w31NRjbeQZfLlZBIC-FQZCeGT497_UfrIbEyfKAQGjI22n4b7ka1-kYnFn2cIyMzaN_4nHht40ZRRJtPWRHZDUbfmytP-55VTFHPyqM6ONTEAW8xvQhCUuW2DFaJc3oSRTwvGCy4/s1600/midnight.png&quot; title=&quot;Часы из мультфильма &amp;quot;Золушка&amp;quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
Но, как это часто бывает, бесплатный сыр встречается редко. Ровно через три года карета Золушки, как в&amp;nbsp;сказке, превратится в&amp;nbsp;самую обычную тыкву! Бесплатная лицензия выдается сроком на 3&amp;nbsp;года и, когда лицензия заканчивается, все резервные копии продолжают оставаться доступными&amp;nbsp;— можно реплицировать их&amp;nbsp;на&amp;nbsp;другую систему, можно восстанавливать данные, но&amp;nbsp;записать новые уже нельзя. По&amp;nbsp;окончании срока действия лицензии, StoreOnce VSA перейдет в&amp;nbsp;режим «только для чтения». Спасти вас может коммерческая лицензия&amp;nbsp;— после покупки и&amp;nbsp;активации, продолжайте полноценное использование продукта. Впрочем, если 3 года система проработала успешно в&amp;nbsp;продуктиве, то&amp;nbsp;пора и&amp;nbsp;полноценную лицензию покупать. А&amp;nbsp;наиболее экономные пользователи найдут способ получить свежую бесплатную лицензию (если они еще будут раздаваться) и&amp;nbsp;реплицировать данные из&amp;nbsp;старой бесплатной VSA на&amp;nbsp;новую. Для наших админов нет нерешаемых задач! Но нужно быть готовыми к такому развитию событий.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Скачать образ виртуальной машины (и&amp;nbsp;зарегистрировать лицензию) можно здесь: &lt;a href=&quot;http://www.hp.com/go/FreeBackup&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;www.hp.com/go/FreeBackup&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/04/hp-storeonce-vsa.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7McxWPjdJDxiTP7DURRfcUBbHJoCbOxueFcKeTrddRb8NphCoudUDqELlRAf-V2wEnBnGKMJWWsJzEX9uQoxEcVvZjjA74aKdEtF3uHbOY9zZ_B-1a5R0j2XqMQK7gYfI2Hkjdqe9M3s/s72-c/storeonce_vsa.jpg" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-6992952561020190220</guid><pubDate>Wed, 15 Apr 2015 05:00:00 +0000</pubDate><atom:updated>2015-04-15T08:00:07.336+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">Data ONTAP</category><category domain="http://www.blogger.com/atom/ns#">netapp</category><category domain="http://www.blogger.com/atom/ns#">VASA Provider</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><category domain="http://www.blogger.com/atom/ns#">VSC</category><category domain="http://www.blogger.com/atom/ns#">VVol</category><title>Еще раз про vVol - теперь для владельцев NetApp </title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Про vVol я уже писал&amp;nbsp;&lt;a href=&quot;http://exlh.blogspot.ru/2015/02/vmware-virual-volumes-vvols.html&quot; target=&quot;_blank&quot;&gt;здесь&lt;/a&gt;. На прошлой неделе стали доступны для загрузки&amp;nbsp;&lt;a href=&quot;http://mysupport.netapp.com/NOW/download/software/vsc_win/6.0/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Virtual Storage Console 6.0&lt;/a&gt;&amp;nbsp;и&amp;nbsp;&lt;a href=&quot;http://mysupport.netapp.com/NOW/download/software/vasa_cdot/6.0/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;VASA Provider&amp;nbsp;6.0 for Clustered Data ONTAP&lt;/a&gt;.&amp;nbsp;Это два необходимых компонента для начала работы с virtual volumes в&amp;nbsp;vSphere&amp;nbsp;6.0 и Data ONTAP. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Virtual Storage Console крайне полезный плагин vCenter, который пригодится любому владельцу СХД NetApp, независимо от планов на использование vSphere&amp;nbsp;6 или virtual volumes. Я буду очень удивлен, если кто-то из администраторов еще не использует&amp;nbsp;его — решение подавляющего большинства задач управления системой хранения упрощается в разы.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
VASA Provider это отдельная виртуальная машина (на базе Linux), которая и реализует двустороннее взаимодействие между vCenter Server и&amp;nbsp;системой хранения.&lt;br /&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgF1tm_ko1ZsAfl3hwiPhBwvPCIWTkFJx8lQt6oJu6uSU6AjAT-5XnENuWLwrwFsm7WDj3Tyou5ZDaaiVQN2lpQuo9PVZXebL5gphxdCqczzEzuD1VFRlVG8cVe-PCmBdiX9qu8pVhPyjw/s1600/vvols_netapp.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp virtual volumes - VASA Provider&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgF1tm_ko1ZsAfl3hwiPhBwvPCIWTkFJx8lQt6oJu6uSU6AjAT-5XnENuWLwrwFsm7WDj3Tyou5ZDaaiVQN2lpQuo9PVZXebL5gphxdCqczzEzuD1VFRlVG8cVe-PCmBdiX9qu8pVhPyjw/s1600/vvols_netapp.png&quot; height=&quot;225&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конечно нужно&amp;nbsp;помнить, что виртуальную машину с VASA Provider нельзя размещать на vVol&amp;nbsp;— сервер ESXi не сможет начать работать с vVol до тех пор, пока не будет запущен VASA Provider. Это&amp;nbsp;в равной степени относится и к vCenter&amp;nbsp;— для него тоже нужно использовать только обычный датастор.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кроме того, бакап и еще раз бэкап! Потеря как базы данных, так и самого VASA Provider может запросто прикончить вашу сверхсовременную и технологичную инфраструктуру. Новые технологии несут нам не только счастье и радость, но и лишние заботы!&amp;nbsp;Хотя для сложной инфраструктуры польза от использования vVol&amp;nbsp;конечно есть&amp;nbsp;— администратор получает очень гибкий инструмент для автоматизированного&amp;nbsp;управления как на уровне отдельной виртуальной машины, так и на уровне групп.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;
Да, на текущий момент в матрице совместимости vSphere&amp;nbsp;&lt;a href=&quot;http://www.vmware.com/resources/compatibility/detail.php?deviceCategory=vvols&amp;amp;productid=38790&amp;amp;deviceCategory=vvols&amp;amp;details=1&amp;amp;partner=64&amp;amp;vasaProfiles=5&amp;amp;isSVA=0&amp;amp;page=1&amp;amp;display_interval=10&amp;amp;sortColumn=Partner&amp;amp;sortOrder=Asc&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;нет поддержки vVols в Data ONTAP&amp;nbsp;8.3&lt;/a&gt;&amp;nbsp;- пока только&amp;nbsp;8.2.3.&lt;br /&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Мне лично больше нравится реализация VASA&amp;nbsp; Provider в HP 3Par&amp;nbsp;— он работает не в отдельной виртуальной машине, а “внутри” системы хранения. Такой вариант мне кажется более удобным для пользователя, хотя до первой проблемы однозначно не скажешь! :)&amp;nbsp;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/04/vvol-netapp.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgF1tm_ko1ZsAfl3hwiPhBwvPCIWTkFJx8lQt6oJu6uSU6AjAT-5XnENuWLwrwFsm7WDj3Tyou5ZDaaiVQN2lpQuo9PVZXebL5gphxdCqczzEzuD1VFRlVG8cVe-PCmBdiX9qu8pVhPyjw/s72-c/vvols_netapp.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7794720734271003222</guid><pubDate>Fri, 10 Apr 2015 05:00:00 +0000</pubDate><atom:updated>2015-04-10T08:00:00.637+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">container</category><category domain="http://www.blogger.com/atom/ns#">Docker</category><category domain="http://www.blogger.com/atom/ns#">hyper-v</category><category domain="http://www.blogger.com/atom/ns#">microsoft</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><title>Пора прорубать окна в контейнерах!</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Контейнеры уже наделали много шума за&amp;nbsp;последний год&amp;nbsp;— в&amp;nbsp;свое время даже про виртуализацию говорили меньше. Популярность их, безусловно, не&amp;nbsp;случайна&amp;nbsp;— многие решения можно построить на&amp;nbsp;основе &lt;nobr&gt;микро-сервисов&lt;/nobr&gt;. Многие разработчики поддерживают такой подход (и&amp;nbsp;именно от&amp;nbsp;них идет столько шума про контейнеры). Той изоляции, которую предоставляет виртуализация уже недостаточно&amp;nbsp;— слишком много накладных расходов, чтобы изолировать каждый сервис, контейнеры обеспечивают гораздо большую эффективность в&amp;nbsp;плане затрат ресурсов.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjFvgpu5Loyk-bZYBfAxS__PJCrTvrJJZ6kRUSlFJau82J9vIc9g682sV0kIP1cUwNRVBxXHuzc9YOkk4C7Pd5ge2vvFSgP30Xk1K0nCa3Y9Ka3iR07gmsT-hjUPAkUuAati59uz3Dr-QE/s1600/container_windows.jpg&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Windows Container&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjFvgpu5Loyk-bZYBfAxS__PJCrTvrJJZ6kRUSlFJau82J9vIc9g682sV0kIP1cUwNRVBxXHuzc9YOkk4C7Pd5ge2vvFSgP30Xk1K0nCa3Y9Ka3iR07gmsT-hjUPAkUuAati59uz3Dr-QE/s1600/container_windows.jpg&quot; height=&quot;300&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Многие наверное еще осенью слышали обещание Microsoft о&amp;nbsp;грядущей поддержке Docker в&amp;nbsp;новой версии Windows. И&amp;nbsp;вот, пришла пора узнать подробности&amp;nbsp;— вчера в&amp;nbsp;Microsoft было сразу два анонса, имеющих непосредственное отношение к&amp;nbsp;контейнерам.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;nobr&gt;Во-первых&lt;/nobr&gt;, это контейнеры &lt;nobr&gt;Hyper-V&lt;/nobr&gt;. Благодаря интеграции с&amp;nbsp;Docker, код, работающий в&amp;nbsp;рамках одного контейнера, изолирован от процессов в операционной системы и процессов в других контейнеров. &lt;nobr&gt;Hyper-V&lt;/nobr&gt; контейнеры можно будет развертывать как обычный Windows Server контейнер, так и&amp;nbsp;в&amp;nbsp;виде виртуальной машины &lt;nobr&gt;Hyper-V&lt;/nobr&gt;&amp;nbsp;— довольно интересная опция, которая может стать аргументом для принятия технологии корпоративным сектором. Управление обоими видами контейнеров осуществляется через Docker.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhVUwxyz0vC5yP6H98GdHfGzviwj3RpBGwJ-cYHKTq6bL4yIabFwtMOH7s6Nxf997NzxIVR5SiMblFaB0JFo3klO0ZfHuxla2YNGrM8l2iGk4lzDpi4vQXYDLGUk2NS2ZNLvQePPlLWNQA/s1600/windows_docker.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Windows Hyper-V Container&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhVUwxyz0vC5yP6H98GdHfGzviwj3RpBGwJ-cYHKTq6bL4yIabFwtMOH7s6Nxf997NzxIVR5SiMblFaB0JFo3klO0ZfHuxla2YNGrM8l2iGk4lzDpi4vQXYDLGUk2NS2ZNLvQePPlLWNQA/s1600/windows_docker.png&quot; height=&quot;197&quot; title=&quot;&quot; width=&quot;640&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;nobr&gt;Во-вторых&lt;/nobr&gt;, объявлено о&amp;nbsp;еще одной редакции Windows Server. Это минифицированная операционная система с&amp;nbsp;говорящим за&amp;nbsp;себя названием Nano Server. В&amp;nbsp;результате масштабного рефакторинга существенно сокращен размер ядра, а&amp;nbsp;сама система поддерживает удаленную установку и&amp;nbsp;управление. Nano Server оптимизирован для облачных вычислений и&amp;nbsp;DevOps разработки. &lt;nobr&gt;Наконец-то&lt;/nobr&gt; нам обещают меньше патчей и&amp;nbsp;апдейтов, а&amp;nbsp;также быструю перезагрузку. Редакция Nano Server будет доступна уже в&amp;nbsp;следующем релизе Windows Server, поэтому ждать остается не&amp;nbsp;так уж&amp;nbsp;и&amp;nbsp;долго.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Пользователь сможет устанавливать только те&amp;nbsp;компоненты, которые действительно нужны. Результат от&amp;nbsp;таких оптимизаций весьма многообещающий&amp;nbsp;— на&amp;nbsp;текущий момент декларируется:&lt;/div&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;уменьшение размера &lt;nobr&gt;VHD-файла&lt;/nobr&gt; на&amp;nbsp;93%&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;потребуется на&amp;nbsp;92% меньше патчей&amp;nbsp;— (возможно речь идет о&amp;nbsp;потенциальном количестве, за&amp;nbsp;счет сокращения числа устанавливаемых сервисов)&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;снижение числа перезагрузок на&amp;nbsp;80%&lt;/li&gt;
&lt;/ul&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Чтобы все это достичь пришлось избавиться от&amp;nbsp;GUI, отказаться от&amp;nbsp;поддержки 32 битных приложений, MSI и&amp;nbsp;от&amp;nbsp;целого ряда других, стандартных для Server Core, компонентов. В&amp;nbsp;том числе, нет поддержи локальной авторизации и&amp;nbsp;RDP&amp;nbsp;— все управление осуществляется только удаленно через PowerShell и&amp;nbsp;WMI. Для обеспечения удобства управления нас ждут изменения в&amp;nbsp;PowerShell&amp;nbsp;— будут поддерживаться, например, передача файлов и&amp;nbsp;удаленная отладка. Кроме того, планируется представить новые &lt;nobr&gt;web-утилиты&lt;/nobr&gt; как замену локальных инструментов управления.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так как Nano Server это именно переработанная версия Windows Server, то&amp;nbsp;полная совместимость с&amp;nbsp;&lt;acronym lang=&quot;en&quot; title=&quot;Application programming interface&quot;&gt;API&lt;/acronym&gt; (в&amp;nbsp;рамках оставшихся в&amp;nbsp;Nano Server компонентов) упростит разработку нового ПО. Visual Studio будет полностью поддерживаться, так что экосистема не&amp;nbsp;должна оказаться пустой.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Например, в&amp;nbsp;&lt;a href=&quot;https://www.chef.io/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Chef&lt;/a&gt;&amp;nbsp;плотно занимаются интеграцией с&amp;nbsp;Nano Server, заявляя о&amp;nbsp;том, что новая платформа (Nano Server плюс автоматизация от&amp;nbsp;Chef) станет отличным решением для разработки в&amp;nbsp;стиле DevOps.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Само собой, Nano Server будет и&amp;nbsp;отличной базой для развертывания на&amp;nbsp;нем контейнеров Windows Server и&amp;nbsp;&lt;nobr&gt;Hyper-V&lt;/nobr&gt; контейнеров. В&amp;nbsp;мире Linux аналог уже доступен&amp;nbsp;— Red Hat Enterprise Linux Atomic Host.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Уже в&amp;nbsp;конце апреля, на&amp;nbsp;конференции &lt;a href=&quot;http://www.buildwindows.com/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Build 2015&lt;/a&gt;, можно будет увидеть контейнеры Windows «живьем».&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Источник:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://blogs.technet.com/b/server-cloud/archive/2015/04/08/microsoft-announces-new-container-technologies-for-the-next-generation-cloud.aspx&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;&lt;/a&gt;&lt;a href=&quot;http://blogs.technet.com/b/server-cloud/archive/2015/04/08/microsoft-announces-new-container-technologies-for-the-next-generation-cloud.aspx&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;http://blogs.technet.com/b/&lt;nobr&gt;server-cloud&lt;/nobr&gt;/archive/2015/04/08/microsoft-announces-new-container-technologies-for-the-&lt;nobr&gt;next-generation-cloud&lt;/nobr&gt;.aspx&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;br /&gt;&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/04/blog-post.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjFvgpu5Loyk-bZYBfAxS__PJCrTvrJJZ6kRUSlFJau82J9vIc9g682sV0kIP1cUwNRVBxXHuzc9YOkk4C7Pd5ge2vvFSgP30Xk1K0nCa3Y9Ka3iR07gmsT-hjUPAkUuAati59uz3Dr-QE/s72-c/container_windows.jpg" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-3330636006669275736</guid><pubDate>Thu, 02 Apr 2015 09:00:00 +0000</pubDate><atom:updated>2015-04-02T12:00:02.643+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">FC errors</category><category domain="http://www.blogger.com/atom/ns#">Linux</category><category domain="http://www.blogger.com/atom/ns#">RedHat</category><category domain="http://www.blogger.com/atom/ns#">SCSI Decoder</category><category domain="http://www.blogger.com/atom/ns#">SCSI errros</category><category domain="http://www.blogger.com/atom/ns#">утилиты</category><title>SCSI Decoder</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
Нашел в почте письмо от RedHat про полезную утилиту - &lt;a href=&quot;https://access.redhat.com/labs/scsi/&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;SCSI Decoder&lt;/a&gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Штука действительно очень полезная для админа - больше не нужно копаться в документации и расшифровывать сообщения об ошибках, чтобы потом попытаться найти какие-то исправления или апдейты.Теперь все тривиально - копируем кусок лога (а можно прямо и сам файл взять) и скармливаем в декодер:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgR5BffzIAKIP2KIF4EMB8fmiyrwDvSCDi7pmv5VTV-YEsloAM4k97MCL_5EjchHG8IJPeMrPTcd55lQH_9uEiKshnHDEjkqHBnhL5gfjJujGf5yXj6h2kXuKA8FRaYY2qKhvC2WCpTxQs/s1600/scsi_decoder.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;RedHat SCSI Decoder&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgR5BffzIAKIP2KIF4EMB8fmiyrwDvSCDi7pmv5VTV-YEsloAM4k97MCL_5EjchHG8IJPeMrPTcd55lQH_9uEiKshnHDEjkqHBnhL5gfjJujGf5yXj6h2kXuKA8FRaYY2qKhvC2WCpTxQs/s1600/scsi_decoder.png&quot; height=&quot;264&quot; title=&quot;&quot; width=&quot;640&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Справа увидим список найденных ошибок, а после нажатия &quot;DECODE&quot; получим не только детальное описание ошибки, но и ссылку на возможное решение проблемы. В данном примере это будет:&lt;/div&gt;
&lt;blockquote class=&quot;tr_bq&quot;&gt;
&lt;i&gt;SCSI error: return code = 0x08000002 - Illegal Request&lt;br /&gt;* We are getting errors only for first LUN coming from Storage * This LUN is the command device coming from Hitachi Array * Error snippet from messages file: ~~~ kernel: sd 5:0:0:0: SCSI error: r&lt;br /&gt;https://access.redhat.com/solutions/369363&lt;/i&gt;&lt;/blockquote&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Вот и все! С высокой вероятностью мы получим решение проблемы в пару кликов. И не забываем, что ошибки SCSI это не только SCSI диски (которые поди найди сейчас), но и например СХД, подключенные по FC.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Для доступа к декодеру потребуется логин на Red Hat Customer Portal, но никакие подписки и прочие затратные мероприятия от вас не требуются.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
С интересом потратил часть вчерашнего вечера на поиск в почте писем с вопросами про ошибки и скармливание этих ошибок в декодер - когда-то можно было много времени сэкономить на этом!&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/04/scsi-decoder.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgR5BffzIAKIP2KIF4EMB8fmiyrwDvSCDi7pmv5VTV-YEsloAM4k97MCL_5EjchHG8IJPeMrPTcd55lQH_9uEiKshnHDEjkqHBnhL5gfjJujGf5yXj6h2kXuKA8FRaYY2qKhvC2WCpTxQs/s72-c/scsi_decoder.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-4866372822456594846</guid><pubDate>Fri, 27 Mar 2015 09:00:00 +0000</pubDate><atom:updated>2015-03-27T12:00:04.858+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">cDOT</category><category domain="http://www.blogger.com/atom/ns#">Data ONTAP</category><category domain="http://www.blogger.com/atom/ns#">FlashVolume</category><category domain="http://www.blogger.com/atom/ns#">MetroCluster</category><category domain="http://www.blogger.com/atom/ns#">netapp</category><category domain="http://www.blogger.com/atom/ns#">storage</category><title>Data Ontap 8.3 GA - новости и изменения</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Я совсем недавно&amp;nbsp;&lt;a href=&quot;http://exlh.blogspot.com/2015/03/data-ontap-83-metrocluster.html&quot; target=&quot;_blank&quot;&gt;уже писал&lt;/a&gt; про одно из нововведений в cDOT 8.3 - поддержку MetroCluster, но считаю нужным упомянуть и другие возможности, которые пользователи получат в новой версии. &lt;a href=&quot;https://library.netapp.com/ecm/ecm_get_file/ECMP1636023&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Список изменений&lt;/a&gt; весьма обширен - более 40 из 90 страниц отведены перечислению именно новых возможностей.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Что первым бросается в глаза? Конечно система управления - теперь &lt;b&gt;System Manager &lt;/b&gt;интегрирован в Data ONTAP! Больше не нужно устанавливать на компьютер приложение, мучаться с версиями Java - достаточно открыть браузер, набрать адрес и после этого мы получаем полноценную систему управления (на HTML5). Уверен, это это придется по душе очень многим админам!&lt;br /&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivvQwFl4eOm_hHX28fexE4AY896mOpCElxF0U3Zuwq2qGVzTcbmUWhZ3esqSiFWTbqLTLXKwzzkX88YbrhyphenhyphenopUauRFv_FERlUi296g7mjA9K9-ZGEnuGSwYGi88P3I6cwK55g68TcjFgg/s1600/SystemManager.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp System Manager&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivvQwFl4eOm_hHX28fexE4AY896mOpCElxF0U3Zuwq2qGVzTcbmUWhZ3esqSiFWTbqLTLXKwzzkX88YbrhyphenhyphenopUauRFv_FERlUi296g7mjA9K9-ZGEnuGSwYGi88P3I6cwK55g68TcjFgg/s1600/SystemManager.png&quot; height=&quot;214&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Еще одна приятная возможность для администратора - можно сильно упростить жизнь за счет использования &#39;&lt;b&gt;network subnet&lt;/b&gt;&#39;. Вместо того, чтобы назначать каждому логическому интерфейсу (LIF) конкретный адрес, администратор назначает пул адресов для широковещательного домена (broadcast domain). А уже при создании LIF, ему присваивается адрес из пула. Такой подход может быть крайне удобен в больших и часто меняющихся инфраструктурах.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Использование &lt;b&gt;IP Spaces&lt;/b&gt; для изоляции SVM - еще одна возможность для построения развитой инфраструктуры. IP Spaces позволяют получать доступ к кластеру из несвязанных подсетей - даже если клиенты имеют одинаковые адреса:&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEifcHldTwy9y74W-zHRPeMunskeFuFXjkC3UJW5boS2V_clCGBug4bu3csDYiHffVa9wkq0pAT7NJ10YWykiSSX5bBTL51oKqNhzcnH25AF0r1sylvgc6wNXA3ra0aHakrTXRJkaWTJmAc/s1600/IP_Spaces.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Схема IP Spaces&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEifcHldTwy9y74W-zHRPeMunskeFuFXjkC3UJW5boS2V_clCGBug4bu3csDYiHffVa9wkq0pAT7NJ10YWykiSSX5bBTL51oKqNhzcnH25AF0r1sylvgc6wNXA3ra0aHakrTXRJkaWTJmAc/s1600/IP_Spaces.png&quot; height=&quot;312&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В данном случае, клиенты в IPSpace A физически отделены от клиентов IPSpace B, но работают с одним кластером. Эта возможность актуальна для компаний, которые предоставляют системы NetApp в аренду &quot;по кусочкам&quot;.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;b&gt;Миграция LUN&lt;/b&gt; - администратор должен был очень внимательно подходить к процессу планирования системы с самого начала - если уж создали LUN, то перемещать его потом даже внутри системы будет не слишком просто и потребуется остановить доступ к данным. Теперь можно спокойно перемещать LUN внутри SVM без прерывания доступа к данным. Миграция происходит совершенно прозрачно для пользователя и работающих приложений. Далеко не всегда можно заранее спланировать рост нагрузки и требования, поэтому возможность онлайн миграции крайне важна для обеспечения эффективности.&lt;br /&gt;
&lt;br /&gt;
В больших конфигурациях, можно получить слишком большое количество путей от хоста до LUN - это является проблемой управления, но может влиять и на производительность. Для того, чтобы поддержать число путей в рамках разумных границ, теперь используется технология &lt;b&gt;Selective LUN Mapping&lt;/b&gt; (SLM) - хост видит только нужные пути до системы, а лишние спрятаны (но могут быть включены при необходимости. Коллеги &lt;a href=&quot;http://blog.aboutnetapp.ru/archives/1416&quot; target=&quot;_blank&quot;&gt;писали&lt;/a&gt; об этом совсем недавно (есть примеры команд).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;b&gt;Автоматизация процесса обновления ПО&lt;/b&gt;. Еще одна &quot;крутая фишка&quot;. В самых разных ситуациях я сталкивался с тем, что система работает, на ней наблюдаются какие-то проблемы (не критичные, но малоприятные). Спрашиваешь, а почему не обновить на новый микрокод - там же есть исправление как раз вашей проблемы? &quot;Мы бы с удовольствием, но для нас очень проблематично выделить время на обновление и столкнуться с угрозой остановки сервиса. Кроме того, это очень сложная процедура.&quot; И это длится год за годом! &amp;nbsp;Теперь такая проблема больше не должна волновать - администратору достаточно всего трех команд, чтобы запустить процесс обновления:&lt;/div&gt;
&lt;pre&gt;&lt;blockquote class=&quot;tr_bq&quot;&gt;
cluster image package get
cluster image validate
cluster image update&amp;nbsp;&lt;/blockquote&gt;
&lt;/pre&gt;
После этого система начнет процесс обновления (все происходит онлайн - данные доступны, пользователи ничего не замечают). Контролировать процесс можно командой:&lt;br /&gt;
&lt;pre&gt;&lt;blockquote class=&quot;tr_bq&quot;&gt;
cluster image show-update-progress&lt;/blockquote&gt;
&lt;/pre&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конечно нужно быть готовым к неприятностям, но лучше всего просто заранее изучить документацию - тогда неприятностей можно и избежать.&lt;br /&gt;
&lt;br /&gt;
Обновлять систему стало легко, но так ли просто обновить несколько кластеров сразу на нескольких площадках, объединенных в единую инфраструктуру? Далеко не факт. Но если мы используем репликацию (Snap Mirror), то для ее &amp;nbsp;нормального функционирования нужно было поддерживать одинаковые версии и всегда обновлять сначала &quot;получателя&quot; данных. В случае, если репликация идет в обе стороны, приходится останавливать SnapMirror на время апгрейда. Теперь у нас есть &lt;b&gt;version-flexible SnapMirror&lt;/b&gt;, благодаря которому можно спокойно обновлять любой из узлов без остановки репликации. Еще одна задача администрирования решена! Для поддержки распределенной отказоустойчивый инфраструктуры это очень важное нововведение.&lt;br /&gt;
&lt;br /&gt;
Раз уж затронули SnapMirror, то теперь при передаче данных используется &lt;b&gt;компрессия&lt;/b&gt;, что позволяет снижать нагрузку на сеть и каналы связи. &lt;i&gt;Не могу сдержаться - FalconStor NSS умел так делать еще лет 10 тому назад! :) &lt;/i&gt;В любом случае, это еще один плюс в копилку.&lt;br /&gt;
&lt;br /&gt;
У заказчиков, использующих SnapVault появлиась возможность восстанавливать данные на уровне отдельных файлов (технология &lt;b&gt;On-Demand Data Management&lt;/b&gt;). Данные доступны пользователю сразу и он может с ними работать, пока происходит копирование на основную систему.&lt;br /&gt;
&lt;br /&gt;
Перейдем к производительности и эффективности хранения.&lt;br /&gt;
&lt;br /&gt;
Больше не записываем нули на диски! Для томов с включенной дедупликацией, в онлайне находятся блоки из одних нулей и они не записываются на диски (&lt;b&gt;Inline zero write detection and elimination&lt;/b&gt;). В VMware, например, мы создаем eager zeroed диски, чтобы обеспечить неизменный уровень производительности, но из-за архитектуры WAFL, нам нет нужды записывать нули на диски. Кроме того, существуют и другие специфические задачи, когда за счет исключения нулевых блоков, мы получаем заметный прирост производительности.&lt;br /&gt;
&lt;br /&gt;
Еще одно направление оптимизации -&amp;nbsp;&lt;b&gt;All-Flash Optimized personality&lt;/b&gt;. &amp;nbsp;Для All-Flash систем мы отказываемся от всех алгоритмов по оптимизации работы с обычными дисками, так как все это бесполезно для SSD дисков. Как следствие, производительность системы возрастает, а там, где борьба идет за микросекунду, любая оптимизация может быть критичной. AFF personality доступна только для FAS80xx и не позволяет использовать обычные диски - только SSD.&lt;br /&gt;
&lt;br /&gt;
Также улучшена &lt;b&gt;производительность на&amp;nbsp;случайных операциях чтения&lt;/b&gt; - наиболее заметно для SSD, но и на обычных дисках при определенных типах нагрузки должно быть видно.&lt;br /&gt;
&lt;br /&gt;
Следить за производительностью стало удобнее - собирать статистику можно уже не на уровне агрегата, а на уровне отдельного тома (qos statistics volume show).&lt;br /&gt;
&lt;br /&gt;
Что касается эффективности, то самая большая проблема в младших системах (с небольшим числом дисков) это объяснить заказчику, куда делось все то дисковое пространство, за которое он заплатил. Для каждого контроллера отдельные диски выделим под root (рекомендуется RAID-DP) плюс еще пара дисков в резерв (spare). И вот, в самой младшей системе от 12 дисков осталось 2 под данные.&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg6ucSUaFB6VKewzrXLv5Izi-lqObWGHhg-ApjSTc0uaCHwzrwwsb7_HXh6mJVCoCN2KCjuhWtPSjvVrhzSiZa9UYJ3LzlwHB8q5YP198zUM2ZL_0I0OviL0hhzReRoZHzpDhwHmmgkQ10/s1600/FAS_wo_ADP.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp FAS без ADP&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg6ucSUaFB6VKewzrXLv5Izi-lqObWGHhg-ApjSTc0uaCHwzrwwsb7_HXh6mJVCoCN2KCjuhWtPSjvVrhzSiZa9UYJ3LzlwHB8q5YP198zUM2ZL_0I0OviL0hhzReRoZHzpDhwHmmgkQ10/s1600/FAS_wo_ADP.png&quot; height=&quot;201&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
Да, конечно, можно немного &quot;поколдовать&quot; и улучшить ситуацию (здесь RAID4, там один spare диск) - в результате, что-то подходящее можно собрать. Но, во-первых, это нужно делать руками (и игнорировать предупреждения системы), а, во-вторых, даже в этом случае, мы получаем не слишком-то большой объем. Поэтому систему из 12 дисков сложно использовать как active-active, так как на одном из контроллеров будет всегда слишком мало дисков. Наконец-то, в Data ONTAP 8.3 появилось решение - &lt;b&gt;Advanced Disk Partitioning (ADP)&lt;/b&gt;. &amp;nbsp;После метрокластера, мне кажется, это вторая по значимости новость - можно на одних и тех же физических дисках размещать два агрегата - для root и для данных. Причем, для root мы можем собрать RAID-DP и два spare &quot;блока&quot;, а для данных &amp;nbsp;один резервный блок. Теперь конфигураций с 12ю дисками можно уже пользоваться &quot;из коробки&quot; - полезного пространства стало гораздо больше.&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhFsrkNSxdhi44yYQfdcWOHu0LiNkzq_1fUUeV3mrbOd9B_dZcoK3EAgTjj_XJ6XL_RxVXblQO73vjbenRxxzBZykoRWCjhPLFqn9jY_mO39Q1iXraP0UPYKVHxDyOLSnx63H4M_5GrMV0/s1600/ADP_active_passive_FAS.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp FAS active-passive при использовании ADP&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhFsrkNSxdhi44yYQfdcWOHu0LiNkzq_1fUUeV3mrbOd9B_dZcoK3EAgTjj_XJ6XL_RxVXblQO73vjbenRxxzBZykoRWCjhPLFqn9jY_mO39Q1iXraP0UPYKVHxDyOLSnx63H4M_5GrMV0/s1600/ADP_active_passive_FAS.png&quot; height=&quot;133&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
И даже для системы с 12 дисками можно использовать active-active режим работы (полезная емкость конечно ниже, но мы можем делить нагрузку между контроллерами):&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi_AAz4mV7PhBL9qjbnBUaYyuut3hzFsq5Cz1pCN745pOv4b5DO78E3VsSv5TDs24t4kjv92EWgG1PDr06p8D_B4PCPKeaVyOgewJFxPKFfk4rvu1x4bkUnLnIO4MVgDlVM-0RXO_XlyIY/s1600/ADP_active_active_FAS.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp FAS active-active при использовании ADP&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi_AAz4mV7PhBL9qjbnBUaYyuut3hzFsq5Cz1pCN745pOv4b5DO78E3VsSv5TDs24t4kjv92EWgG1PDr06p8D_B4PCPKeaVyOgewJFxPKFfk4rvu1x4bkUnLnIO4MVgDlVM-0RXO_XlyIY/s1600/ADP_active_active_FAS.png&quot; height=&quot;152&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
ADP очень хорошо работает и для AFF конфигураций - стоимость SSD дисков довольно высока и &quot;выбрасывать&quot; их на создание рутового агрегата довольно расточительно. Благодаря ADP, AFF система будет показывать лучшую экономику, при сравнении с конкурентами, чем ранее.&lt;br /&gt;
&lt;br /&gt;
И третьим плюсом от ADP является оптимизация нагрузки на SSD диски в FashPool - на одних и тех же дисках можно создать агрегаты для каждого из контроллеров. Широкий страйпинг позволит обеспечить лучшую производительность системы.&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtMLkYCmCE7EE2fxd6_0hZSHYVpdJZpS1K6PbR-dq5_8ZMbONWNRkyk-41CFdBvbwqiLNLQa1NoPF2C8VeuIr5QL5cHv64lUaqJv7b78lOtUAhUeSqHNF2agxTW5Xa-53vDVQetHa4T9U/s1600/FlashPool_ADP.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp FlashPool при использовании ADP&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtMLkYCmCE7EE2fxd6_0hZSHYVpdJZpS1K6PbR-dq5_8ZMbONWNRkyk-41CFdBvbwqiLNLQa1NoPF2C8VeuIr5QL5cHv64lUaqJv7b78lOtUAhUeSqHNF2agxTW5Xa-53vDVQetHa4T9U/s1600/FlashPool_ADP.png&quot; height=&quot;185&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
Advanced Disk Partitioning можно использовать на младших системах (22хх) для совмещения root и data агрегатов на одних дисках, всех AFF конфигурациях и для всех систем в FlashPool.&lt;br /&gt;
&lt;br /&gt;
В версии 8.3 также существенно увеличен &lt;b&gt;максимальный объем FlashPool&lt;/b&gt; - рост в 4 раза:&lt;br /&gt;
&lt;div style=&quot;text-align: center;&quot;&gt;
&lt;/div&gt;
&lt;table border=&quot;0&quot; cellpadding=&quot;0&quot; cellspacing=&quot;0&quot; style=&quot;border-collapse: collapse; margin-left: auto; margin-right: auto; text-align: left; width: 176px;&quot;&gt;
&lt;!--StartFragment--&gt;
&lt;tbody&gt;
&lt;tr height=&quot;18&quot; style=&quot;height: 18.0pt;&quot;&gt;
  &lt;td height=&quot;18&quot; style=&quot;height: 18pt; text-align: center; width: 120px;&quot; width=&quot;120px&quot;&gt;FAS8080&amp;nbsp;EX&lt;/td&gt;
  &lt;td style=&quot;border-left-style: none; text-align: center; width: 80px;&quot; width=&quot;80px&quot;&gt;144&amp;nbsp;TiB&lt;/td&gt;
 &lt;/tr&gt;
&lt;tr height=&quot;18&quot; style=&quot;height: 18.0pt;&quot;&gt;
  &lt;td height=&quot;18&quot; style=&quot;height: 18pt; text-align: center; width: 120px;&quot; width=&quot;120px&quot;&gt;FAS8060&lt;/td&gt;
  &lt;td style=&quot;border-left-style: none; text-align: center; width: 80px;&quot; width=&quot;80px&quot;&gt;72&amp;nbsp;TiB&lt;/td&gt;
 &lt;/tr&gt;
&lt;tr height=&quot;17&quot; style=&quot;height: 17.0pt;&quot;&gt;
  &lt;td height=&quot;17&quot; style=&quot;border-top-style: none; height: 17pt; text-align: center; width: 120px;&quot; width=&quot;120px&quot;&gt;FAS8040&lt;/td&gt;
  &lt;td style=&quot;border-left-style: none; border-top-style: none; text-align: center; width: 80px;&quot; width=&quot;80px&quot;&gt;48&amp;nbsp;TiB&lt;/td&gt;
 &lt;/tr&gt;
&lt;tr height=&quot;17&quot; style=&quot;height: 17.0pt;&quot;&gt;
  &lt;td height=&quot;17&quot; style=&quot;border-top-style: none; height: 17pt; text-align: center; width: 120px;&quot; width=&quot;120px&quot;&gt;&amp;nbsp; FAS8020&lt;/td&gt;
  &lt;td style=&quot;border-left-style: none; border-top-style: none; text-align: center; width: 80px;&quot; width=&quot;80px&quot;&gt;24&amp;nbsp;TiB&lt;/td&gt;
 &lt;/tr&gt;
&lt;tr height=&quot;17&quot; style=&quot;height: 17.0pt;&quot;&gt;
  &lt;td height=&quot;17&quot; style=&quot;border-top-style: none; height: 17pt; text-align: center; width: 111px;&quot; width=&quot;120px&quot;&gt;FAS25xx&lt;/td&gt;
  &lt;td style=&quot;border-left-style: none; border-top-style: none; text-align: center; width: 80px;&quot; width=&quot;80x&quot;&gt;16&amp;nbsp;TiB&lt;/td&gt;
 &lt;/tr&gt;
&lt;!--EndFragment--&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;div style=&quot;text-align: center;&quot;&gt;
&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div style=&quot;text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
Я кратко описал только часть тех новых возможностей, которые стали доступны после выхода версии 8.3 Data ONTAP. Кто-то конечно мог уже попробовать и оценить многие из перечисленных возможностей, обновившись еще на 8.3 RC1 версию, но сейчас, когда GA уже здесь, можно планировать апгрейд и тем, кто не решался использовать ранние версии. Безусловно, очень важно внимательно изучить документацию перед апгрейдом - всегда есть нюансы.&lt;br /&gt;
&lt;br /&gt;
Почитать на тему:&lt;br /&gt;
&lt;br /&gt;
&lt;a href=&quot;https://library.netapp.com/ecm/ecm_get_file/ECMP1636023&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Clustered Data ONTAP 8.3 Release Notes&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;https://library.netapp.com/ecm/ecm_download_file/ECMP1636021&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Clustered Data ONTAP 8.3 Network Management Guide&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;https://library.netapp.com/ecm/ecm_download_file/ECMP1636035&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Clustered Data ONTAP 8.3 SAN Administration Guide&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;https://library.netapp.com/ecm/ecm_download_file/ECMP1636022&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Clustered Data ONTAP 8.3 Physical Storage Management Guide&lt;/a&gt;&lt;br /&gt;
&lt;div&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/data-ontap-83-ga.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivvQwFl4eOm_hHX28fexE4AY896mOpCElxF0U3Zuwq2qGVzTcbmUWhZ3esqSiFWTbqLTLXKwzzkX88YbrhyphenhyphenopUauRFv_FERlUi296g7mjA9K9-ZGEnuGSwYGi88P3I6cwK55g68TcjFgg/s72-c/SystemManager.png" height="72" width="72"/><thr:total>2</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-2824168301674842800</guid><pubDate>Wed, 25 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-25T08:00:04.309+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">Data ONTAP</category><category domain="http://www.blogger.com/atom/ns#">disaster recovery</category><category domain="http://www.blogger.com/atom/ns#">high availability</category><category domain="http://www.blogger.com/atom/ns#">MetroCluster</category><category domain="http://www.blogger.com/atom/ns#">netapp</category><title>Data ONTAP 8.3 и MetroCluster</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
На прошлой неделе объявлено о GA версии 8.3 Clustered Data&amp;nbsp;ONTAP&amp;nbsp;- внутри довольно много нововведений. Больше “совместимой” 7-mode&amp;nbsp;версии нет - только clustered вариант. Но одним из ключевых изменений я вижу вот это:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;i&gt;&quot;Starting with Data ONTAP 8.3, MetroCluster configurations are supported in clustered Data ONTAP.&quot;&lt;/i&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;i&gt;Начиная с Data ONTAP 8.3 в clustered Data ONTAP поддерживаются конфигурации MetroCluster.&lt;/i&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;i&gt;&lt;br /&gt;&lt;/i&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Важно отметить, что это не совсем тот, знакомый по 7й версии MetroCluster&amp;nbsp;- это сильно переработанный механизм&amp;nbsp;обеспечения отказоустойчивости в&amp;nbsp;двухсайтовых&amp;nbsp;конфигурациях.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как только мы начинаем говорить про отказоустойчивость, сразу появляются два важных параметра:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;RPO,&amp;nbsp;Recovery Point Objective - максимально&amp;nbsp;допустимая потеря данных при сбое&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;RTO, Recovery Time Objective - максимально допустимое время восстановления сервис СХД (обеспечение доступности данных для приложений)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Отказоустойчивость в системах с MetroCluster в Data ONTAP 8.3 базируется на двух столпах:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;NDO (NonDisruptive Operation) при большинстве локальных сбоев внутри датацентра (отдельные&amp;nbsp;компоненты,&amp;nbsp;узел кластера, сбои сети и т.п.). Кроме того, обеспечивается непрерывность&amp;nbsp;обслуживания и во время проведения планового обслуживания системы.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Непосредственно MetroCluster повышает доступность за счет наличия второго датацентра и зеркалирования данных на удаленную систему&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Между узлами кластера обеспечивается автоматическое переключение в&amp;nbsp;рамках одного датацентра и ручное переключение нагрузки при полном сбое в основном ЦОДе.&amp;nbsp;При этом, заказчик получает нулевой&amp;nbsp;RPO (данные не теряются) и RTO порядка 120 секунд для запланированных переключений между площадками и порядка несколько минут для “аварийных” переключений&amp;nbsp;(администратору&amp;nbsp;достаточно выполнить только одну команду).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Функционирование MetroCluster “прозрачно” для ОС&amp;nbsp;и&amp;nbsp;прикладных&amp;nbsp;приложений, поэтому нет необходимости во внесении&amp;nbsp; существенных изменений в имеющуюся инфраструктуру. Переход на резервную площадку не требует переподключения хостов к SAN или NFS ресурсам, так как все пути до СХД остаются неизменными. Только для SMB клиентам понадобится подключиться заново (в силу ограничений протокола).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
MetroCluster интегрирован непосредственно в Data&amp;nbsp;ONTAP и не требует никаких дополнительных лицензий&amp;nbsp;- нужно только правильно спланировать архитектуру системы.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Больше нет разделения на Fabric MetroCluster (FMC) и strech MetroCluster (SMC) - есть только один MetroCluster, который может быть использован на расстояниях до 200км.&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjYJKveevpz5CmUgIcDALartU9gH2LrbnSW6a3YWdEKbmjLOuAlsc9J8_kxR2zela3Su1gnkvZ-eGgbE8VCzNMzNcGYKccZcnaR7PZ7UEMm6r1dhjH9Mr28CYnuWTA2eOfMg137lhVBhU/s1600/MetroCluster_preview.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp MetroCluster image&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjYJKveevpz5CmUgIcDALartU9gH2LrbnSW6a3YWdEKbmjLOuAlsc9J8_kxR2zela3Su1gnkvZ-eGgbE8VCzNMzNcGYKccZcnaR7PZ7UEMm6r1dhjH9Mr28CYnuWTA2eOfMg137lhVBhU/s1600/MetroCluster_preview.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как уже наверное стало понятно из вышесказанного, в новой версии мы больше не “растягиваем” одну пару контроллеров между площадками, а размещаем на каждой площадке по HA-паре. Несомненный плюс такого подхода - снимается одно из главных возражений против использования метрокластера, которое регулярно приходилось слышать. А что будет, если у нас выйдет из строя один контроллер? Раньше нас ждал переезд на вторую площадку (как правило, в ручном режиме) и, безусловно, такие мероприятия доставляют мало удовольствия. В то же время, исследования показывают, что незапланированные проблемы, приводящие к выходу из строя целой площадки составляют всего около 1% от всех возможных нештатных ситуаций. Чаще&amp;nbsp;всего вообще причина остановки - плановое обслуживание. Прозрачное переключение между узлами в HA-паре позволяет практически полностью избавиться от такого рода проблем&amp;nbsp;- теперь плановые работы можно проводить именно “по плану”.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Что же нужно, чтобы “построить” MetroCluser?&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Для связи между площадками используются FC линки, которых желательно иметь не менее четырех. &lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Также потребуется установить на каждой площадке по 2 FC коммутатора&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Все контроллеры должны иметь доступ к дискам на всех площадках, поэтому дисковые полки нельзя подключить через SAS напрямую, а нужно использовать FC-SAS гейты (ATTO 6500N).&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Желательно на каждой площадке установить не менее 4 дисковых полок (минимум 2).&amp;nbsp;Когда каждая полка содержит диски только одного пула, администрировать систему заметно проще - не нужно вручную назначать диски контроллерам, а&amp;nbsp;значит&amp;nbsp;и запутаться вероятность ниже.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;По FC-VI карте в каждый контроллер&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Все правильно подключить и настроить :)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div&gt;
После этого, каждый контроллер в двух HA-парах начнет синхронно зеркалировать все изменяющиеся данные (включая информацию о конфигурации) на вторую площадку. На самом деле, на каждой площадке может быть и больше двух контроллеров - у нас же clustered Data ONTAP!&amp;nbsp;&lt;/div&gt;
&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGWA-lPC47AzZyDPpBgF_9oVqfRNAlBOqxYNOG3LToQXfZoQECXaC_8zEdLYEn-aaTtgZfgs2n34Wtyj_H-dnQZuP8AWsBnj6RZA-RITnd1PLYe0tUgtRlo-uB9c5SdV7MymNbWs4z8XA/s1600/MetroCluster.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;NetApp MetroCluster connections&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGWA-lPC47AzZyDPpBgF_9oVqfRNAlBOqxYNOG3LToQXfZoQECXaC_8zEdLYEn-aaTtgZfgs2n34Wtyj_H-dnQZuP8AWsBnj6RZA-RITnd1PLYe0tUgtRlo-uB9c5SdV7MymNbWs4z8XA/s1600/MetroCluster.png&quot; height=&quot;407&quot; title=&quot;&quot; width=&quot;640&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как видим, получается не такую уж и маленькую система. При этом, совсем младшие модели будут иметь много ограничений по доступным портам - часть слотов расширения займут FC-VI карты.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
После того как все настроено, данные будут зеркалироваться между площадками. Операции чтения&amp;nbsp;по-умолчанию происходят с “локальных” для контроллера дисков. Контроллер &amp;nbsp;A1 будет всегда читать данные с дисков в &quot;A1 Plex0&quot;. Однако, для некоторых типов нагрузки, с точки зрения производительности, может быть выгоднее &amp;nbsp;включить чередование операций чтения с разных площадок (это можно настроить). А вот операции&amp;nbsp;записи будут подтверждаться только после того, как второй контроллер в паре и парный контроллер на второй площадке&amp;nbsp;отрапортуют о получении данных (в NVRAM). &amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivnsLNC8M0A8uU0RV01etTSUeIdQSUguNIhMFvCmAFQzkx53g3fAQdFAmgbUEv30fg_YZ6r8g91L3GzKrgSoizvbuNXanbqgAPnUIs1dhCN1yCvAcZkK9HGvSiLdDrz8E0kSaJyUi9QrM/s1600/SyncMirror.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivnsLNC8M0A8uU0RV01etTSUeIdQSUguNIhMFvCmAFQzkx53g3fAQdFAmgbUEv30fg_YZ6r8g91L3GzKrgSoizvbuNXanbqgAPnUIs1dhCN1yCvAcZkK9HGvSiLdDrz8E0kSaJyUi9QrM/s1600/SyncMirror.png&quot; height=&quot;257&quot; width=&quot;640&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Помимо данных, зеркалируется и содержимое NVRAM контроллеров. Поэтому каждый контроллер использует для “своих” нужд&amp;nbsp;только четверть от общего&amp;nbsp;объема NVRAM и реплицирует данные на два других контроллера (локального и удаленного партнера). В нормальном режиме функционирования в NVRAM каждого контроллера, помимо &quot;своих&quot; данных, есть еще и данные двух других контроллеров (в NVRAM контроллера A1 - данные из NVRAM контроллеров A2 и B1). Еще четверть резервируется на случай выхода&amp;nbsp;из строя&amp;nbsp;одного из контроллеров после сбоя на площадке, т.е. на случай, когда у нас останется в живых только один контроллер из четырех. И&amp;nbsp;даже в этом случае система будет продолжать работать!&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конечно, думая о внедрении MetroCluster, мы должны помнить и об ограничениях:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Нельзя защитить только часть данных - в MetroCluster должны дублироваться абсолютно все данные. На двух площадках всегда должно быть одинаковое количество дисковых ресурсов и нельзя создать агрегат без зеркалирования. Конечно можно на одной площадке использовать 60% доступных локальных дисковых ресурсов, а на второй&amp;nbsp;40%. Такая схема будет поддерживаться, но зеркалировать нужно все.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Не поддерживаются Infinite Volumes.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Не поддерживается Advanced Disk Partitioning.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Не поддерживается NSE (NetApp Storage Encryption). Если требуется шифрование, можно использовать виртуализацию СХД и подключить сторонние системы,&amp;nbsp;которые такой режим поддерживают.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Действуют ограничения на количество SSD дисков в стеке полок (не более 48). Кроме того, рекомендуется не смешивать в одной полке SSD и обычные&amp;nbsp;диски.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Ограничение конкретной модели FAS на число дисков распространяется не на HA-пару, а на 4 контроллера (т.е. на две площадки), так что на каждой площадке может быть не более 50% от возможного числа дисков.&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Рекомендуется “ручное” переключение между площадками в случае сбоя&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Восстановление всегда &quot;ручная” операция, требующая вмешательства администратора СХД&amp;nbsp;&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Еще несколько слов про переключение между площадками. Рекомендация делать переключения вручную неслучайна - вероятность выхода целой площадки из строя весьма мала, но последствия могут быть самыми разными, поэтому важно понимать что мы делаем и зачем. Кроме того, может быть ситуация, когда обе площадки живы, а вот канал связи между ними потерян - в таком случае, никакие переключения делать не стоит. Обычно&amp;nbsp;в таких случаях используется третья площадка, которая “следит” за происходящим. В случае с MetroCluster есть т.н. tiebreaker software, который и выполняет эту роль. Да, с его помощью можно полностью автоматизировать переключение на резервную площадку при сбое,&amp;nbsp;но, поверьте, это не самая лучшая идея. Поэтому лучше использовать этот софт только как средство дополнительного мониторинга.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Не могу сказать, что MetroCluster это универсальное и наилучшее решение для создания катастрофоустойчивых решений - такие решения строго индивидуальны и нет &quot;серебряной пули&quot;, которая бы решала все проблемы. С одной стороны, весомым аргументом за метрокластер всегда была цена &quot;входа&quot; в решение - да, нужно было дублировать дисковые полки, но фактически было достаточно одной системы (всего пары контроллеров). Но, с другой стороны, именно эта особенность системы всегда вызывала больше всего нареканий. Сейчас мы, безусловно, получили &quot;взрослое&quot; решение, но не отпугнет ли заказчика итоговая цена? Думаю, что если и отпугнет, то далеко не всех - катастрофоустойчивые системы не бывают бесплатными и это, к счастью все понимают.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Почитать&amp;nbsp;по теме:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;https://library.netapp.com/ecm/ecm_get_file/ECMP1636023&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Data ONTAP 8.3 Release Notes&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://mysupport.netapp.com/documentation/productlibrary/index.html?productID=30022%0D&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;NetApp MetroCluster Product Documentation&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://www.netapp.com/us/media/tr-3982.pdf%20&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;TR-3982: Introduction to Clustered Data ONTAP&lt;/a&gt;&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/data-ontap-83-metrocluster.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjYJKveevpz5CmUgIcDALartU9gH2LrbnSW6a3YWdEKbmjLOuAlsc9J8_kxR2zela3Su1gnkvZ-eGgbE8VCzNMzNcGYKccZcnaR7PZ7UEMm6r1dhjH9Mr28CYnuWTA2eOfMg137lhVBhU/s72-c/MetroCluster_preview.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-8959768265897835355</guid><pubDate>Fri, 20 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-20T08:00:00.314+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">EVO:RAIL</category><category domain="http://www.blogger.com/atom/ns#">hyper-v</category><category domain="http://www.blogger.com/atom/ns#">hyperconverged</category><category domain="http://www.blogger.com/atom/ns#">microsoft</category><category domain="http://www.blogger.com/atom/ns#">SDN</category><category domain="http://www.blogger.com/atom/ns#">SDS</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><title>Microsoft - Software Defined Datacenter легко!</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В то время как партнеры VMware уже поставляют системы &lt;a href=&quot;https://www.vmware.com/ru/products/evorail&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;EVO:RAIL&lt;/a&gt;, которые могут быть полностью развернуты для использования всего за 15 минут, Microsoft выпускает электронную книгу &quot;&lt;a href=&quot;http://www.microsoftvirtualacademy.com/ebooks#9780735695672&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;Microsoft System Center Deploying Hyper-V with Software-Defined Storage &amp;amp; Networking&lt;/a&gt;&quot;.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Всего 236 страниц и вы сможете легко:&lt;/div&gt;
&lt;br /&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;выбрать железо&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;спланировать архитектуру&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;развернуть кластер&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;настроить сеть&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;настроить дисковые ресурсы&lt;/li&gt;
&lt;/ul&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSIVRp1bQapRRbR0zbfJ_ahBhqkcFC_gVoHLRinH4cM6nIfBpeTrVu_2QgDvReWWseAE6ahnhXpSuQVeUcTZ0d9n0UwApclJrNfcftCnb1eAzD5wW9Ug1oFQ4KiladtpsmZ_FZWoCPhBo/s1600/Screen+Shot+2015-03-19+at+08.54.32.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Архитектура системы Hyper-V: SDS, SDN&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSIVRp1bQapRRbR0zbfJ_ahBhqkcFC_gVoHLRinH4cM6nIfBpeTrVu_2QgDvReWWseAE6ahnhXpSuQVeUcTZ0d9n0UwApclJrNfcftCnb1eAzD5wW9Ug1oFQ4KiladtpsmZ_FZWoCPhBo/s1600/Screen+Shot+2015-03-19+at+08.54.32.png&quot; height=&quot;391&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Вот, теперь можно и начать разворачивать виртуальные машины!&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В 15 минут конечно не уложились и попутно настроили десяток серверов, но зато &quot;бесплатный&quot; гипервизор и вся инфраструктура на базе Microsoft. Это конечно все сарказм и шутки - документ на самом деле интересный и полезный. Стоит прочитать или хотя бы помнить, что он существует.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если VMware предлагает EVO:RAIL с тем, чтобы пользователи могли сами развернуть всю инфраструктуру максимально быстро при минимальных знаниях, то Microsoft, по всей видимости, дает возможность партнерам заработать на сервисе и продавать заказчикам услуги по развертыванию. Это конечно имеет смысл, но вот вопрос что выберет партнер - развернуть за 15 минут VMware и оставшееся время потратить на обучение сотрудников заказчика, либо потратить день на развертывание Hyper-V?&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/microsoft-software-defined-datacenter.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSIVRp1bQapRRbR0zbfJ_ahBhqkcFC_gVoHLRinH4cM6nIfBpeTrVu_2QgDvReWWseAE6ahnhXpSuQVeUcTZ0d9n0UwApclJrNfcftCnb1eAzD5wW9Ug1oFQ4KiladtpsmZ_FZWoCPhBo/s72-c/Screen+Shot+2015-03-19+at+08.54.32.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-684954901972798261</guid><pubDate>Wed, 18 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-18T08:00:06.235+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">DataCore</category><category domain="http://www.blogger.com/atom/ns#">falconstor</category><category domain="http://www.blogger.com/atom/ns#">Huawei</category><category domain="http://www.blogger.com/atom/ns#">hyper-v</category><category domain="http://www.blogger.com/atom/ns#">hyperconverged</category><category domain="http://www.blogger.com/atom/ns#">SANsymphony</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><title>Очередное пополнение среди конвергентных решений: Huawei + DataCore</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Huawei и DataCore &lt;a href=&quot;http://www.datacore.com/Company/news-press-center/Press-Releases/2015/03/17/huawei-and-datacore-announce-global-partnership-for-software-defined-storage-and-hyper-converged-solutions&quot; target=&quot;_blank&quot;&gt;объявили&lt;/a&gt; о партнерстве&amp;nbsp;в области Software Defined Storage и hyperconverged систем. &amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
DataCore Software, как мне кажется, не очень хорошо известны на российском рынке, но эта компания очень давно работает на рынке программных реализаций систем хранения и ее продукт&amp;nbsp;&lt;a href=&quot;http://www.datacore.com/products/SANsymphony-V.aspx&quot; target=&quot;_blank&quot;&gt;SANsymphony&lt;/a&gt; активно конкурирует с такими системами как, например, &lt;a href=&quot;http://falconstor.com/page/577/network%2Dstorage%2Dserver%2Dmaximize%2Dstorage%2Dutilization%2Din%2Dheterogeneous%2Dstructures&quot; target=&quot;_blank&quot;&gt;Falconstor NSS&lt;/a&gt;.&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMDquLWmJbibnlUuY-7qU8_JbPl0BNsBsTP3PXnody83qhWNBBmsvnxzg-bxI9N_vUZFvzAY6al_nQCl_MU5Iz9jieDVWR2kMpOHok0gRBepU2GPVal0fQhREgVaZL2mkgZi95tp-FJp4/s1600/huawei_fusionserver.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Huawei FusionServer&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMDquLWmJbibnlUuY-7qU8_JbPl0BNsBsTP3PXnody83qhWNBBmsvnxzg-bxI9N_vUZFvzAY6al_nQCl_MU5Iz9jieDVWR2kMpOHok0gRBepU2GPVal0fQhREgVaZL2mkgZi95tp-FJp4/s1600/huawei_fusionserver.png&quot; height=&quot;211&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конвергентная система состоит из серверов Huawei FusionServer RH с предустановленным программным обеспечением DataCore&amp;nbsp;SANsymphony&amp;nbsp;и поддерживает&amp;nbsp; различные гипервизоры (Hyper-V и VMware). Максимальная конфигурация включает 64 узла в кластере, а минимально&amp;nbsp;необходимо только 2 узла, чтобы обеспечить отказоустойчивость. Решение не ограничивается простым кластером - за счет синхронной репликации на&amp;nbsp;расстояниях до&amp;nbsp;100м обеспечивается катастрофоустойчивость в&amp;nbsp;распределенном кластере. При правильной организации, полный сбой на одной из площадок не приведет к остановке всей&amp;nbsp;инфраструктуры. Кроме того, поддерживается и асинхронная репликация - все это позволяет строить полноценные катастрофоустойчивые решения.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://www.datacore.com/products/features/random-write-accelerator&quot; target=&quot;_blank&quot;&gt;DataCore&amp;nbsp;Random Write Accelerator&lt;/a&gt; позволяет существенно ускорить операции записи&amp;nbsp;за счет использования быстрых SSD дисков, а&amp;nbsp;многоуровневое хранение (multi-tiering) повысит не только скорость работы, но и эффективность использования дискового пространства.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Отличительной особенностью данного решения является то, что заказчик не ограничен в использовании лишь встроенных дисковых ресурсов (и DAS&amp;nbsp;полок). SANsymphony это, по сути своей, еще и виртуализоватор СХД, поэтому в систему можно подключать как имеющиеся, так и новые системы хранения. Не секрет, что в SDS довольно низкая&amp;nbsp;утилизация дискового пространства -&amp;nbsp;в силу изолированности узлов требуется, как минимум, две копии данных плюс дополнительные резервы на снапшоты и пр. Использование внешних СХД может увеличить&amp;nbsp;утилизацию дискового пространства, при этом, управление ресурсами будет по-прежнему сосредоточено в одном месте.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgkVgvIY6x5Xth-sDrVUrVDP5RHEP5WQ-wZkb20deAhy50VWpbeHhYKa5wdO5c0auyU-MD-HwDXabnLiv10HufdIOIvCfx1CQmNUaGnHY1GfzNdgK_ci7lOCKx-tXNquK2pBUHnAC9Ub9U/s1600/huawei_datacore.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Huawei - DataCore solution&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgkVgvIY6x5Xth-sDrVUrVDP5RHEP5WQ-wZkb20deAhy50VWpbeHhYKa5wdO5c0auyU-MD-HwDXabnLiv10HufdIOIvCfx1CQmNUaGnHY1GfzNdgK_ci7lOCKx-tXNquK2pBUHnAC9Ub9U/s1600/huawei_datacore.png&quot; height=&quot;311&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Сотрудничество Huawei и DataCore уже имеет некоторую историю - вот один интересный документ с тестом DataCore на оборудовании Huawei &quot;&lt;i&gt;&lt;a href=&quot;http://enterprise.huawei.com/ilink/enenterprise/download/HW_400583&quot; target=&quot;_blank&quot;&gt;Oracle OLTP Performance Acceleration Using Huawei OceanStor Dorado and DataCore SANsymphony-V Storage Virtualization Gateway&lt;/a&gt;&lt;/i&gt;”.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Единственное, что меня всегда немного “напрягало”&amp;nbsp;в SANsymphony это&amp;nbsp;то, что он работает в Windows среде, но, с другой стороны, StarWind тоже работает и ничего :)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Учитывая, что сейчас&amp;nbsp;Huawei может предложить практически любое оборудование, начиная от серверов и СХД, заканчивая&amp;nbsp;инженерными системами в ЦОД, данное решение позволяет получить законченную конвергентную систему от одного вендора, которая отлично масштабируется и&amp;nbsp;сможет закрыть практически все требования. А уж если вспомнить про текущую политическую ситуацию, такое решение от азиатского вендора может оказаться весьма и весьма интересным как для &quot;станционных&quot; компаний, так и для тех, кто опасается возможных ограничений.&amp;nbsp;&lt;/div&gt;
&lt;br /&gt;
&lt;div&gt;
&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
￼&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/huawei-datacore.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMDquLWmJbibnlUuY-7qU8_JbPl0BNsBsTP3PXnody83qhWNBBmsvnxzg-bxI9N_vUZFvzAY6al_nQCl_MU5Iz9jieDVWR2kMpOHok0gRBepU2GPVal0fQhREgVaZL2mkgZi95tp-FJp4/s72-c/huawei_fusionserver.png" height="72" width="72"/><thr:total>3</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-2982336462029435280</guid><pubDate>Fri, 13 Mar 2015 14:00:00 +0000</pubDate><atom:updated>2015-03-13T17:00:05.657+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">powerpoint</category><category domain="http://www.blogger.com/atom/ns#">презентация</category><title>Полезные ссылки для подготовки любой презентации</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;С удовольствием сходил на конференцию &lt;a href=&quot;http://moscow-grand-forum-2015.ciseventsgroup.com/&quot; target=&quot;_blank&quot;&gt;&quot;Бизнес и ИТ. Вокруг ЦОД. Вокруг Облака. Вокруг IP”&lt;/a&gt;&amp;nbsp;- это одно из немногих мероприятий, с&amp;nbsp;которого не хотелось уйти с середины. &lt;a href=&quot;https://www.facebook.com/domatskevich&quot; target=&quot;_blank&quot;&gt;Дмитрий Мацкевич&lt;/a&gt; - молодец! :)&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;Несмотря на очень интересные темы выступлений, не могу сдержаться и не дать несколько ссылок, которые, как мне кажется,  в обязательном порядке нужно изучить перед подготовкой к любой&amp;nbsp;презентации. Организаторам всегда стоит &amp;nbsp;рассылать в виде мягкого намека всем приглашенным докладчикам.&lt;/span&gt;&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;Нет&amp;nbsp;никакого смысла размещать текст на слайде - если человеку нужно больше 2-3 секунд, чтобы прочитать (и осознать!)&amp;nbsp;слова на слайде, он вас уже не слышит - он думает над текстом, а вашу мысль он не поймет, потому что половину пропустит. &amp;nbsp;Если у&amp;nbsp;вас настолько значимая информация, что ее необходимо передать всем - пришлите по почте, это будет гораздо полезнее и точно дойдет до адресата.&lt;/span&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;Когда готовите&amp;nbsp;презентацию, отодвиньтесь на пару метров от экрана&amp;nbsp;и&amp;nbsp;сдвиньтесь вбок. Хорошо, если у вас монитор с не очень большим углом обзора - вот примерно так 50% аудитории и будут видеть ваши слайды. Удобно, все понятно на слайде? Если нет - переделать срочно!&lt;/span&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;Никогда не размещайте значимую информацию в нижней и верхней части слайда - наверняка многие ничего там&amp;nbsp;не увидят из-за невысокого&amp;nbsp;потолка или голов&amp;nbsp;впереди.&lt;/span&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;Никогда не используйте 50 оттенков серого&amp;nbsp;на слайде - проектор передаст из низ 2 (или 1), а остальные будут либо черными, либо белыми.&amp;nbsp;Хуже могут быть только желтый, розовый и голубой цвета - они вообще должны быть под запретом. Думайте про используемые сочетания цветов.&lt;/span&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;А вот обещанный “must&amp;nbsp;read&quot;:&lt;/span&gt;&lt;br /&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;span style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;Seth Godin:&amp;nbsp;10 советов, как готовить презентацию&lt;/span&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;a href=&quot;http://blog.ted.com/10-tips-for-better-slide-decks/&quot; style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;http://blog.ted.com/10-tips-for-better-slide-decks/&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;blockquote class=&quot;tr_bq&quot;&gt;
&lt;span style=&quot;color: #111111; font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;&lt;i&gt;&quot;No more than six words on a slide. EVER. There is no presentation so complex that this rule needs to be broken.&quot;&lt;/i&gt;&lt;/span&gt;&lt;/blockquote&gt;
&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;span style=&quot;color: #111111;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #111111; font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;Garr Reynolds: The Naked Presenter / Обнаженный оратор&amp;nbsp;&lt;/span&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;a href=&quot;http://amzn.com/0321704452&quot; style=&quot;background-color: white; font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;http://amzn.com/0321704452&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;a href=&quot;https://www.ozon.ru/context/detail/id/28289241/&quot; style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;https://www.ozon.ru/context/detail/id/28289241/&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;span style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;Chuck Hollis:&lt;/span&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;a href=&quot;http://chucksblog.emc.com/chucks_blog/2010/06/from-presenting-to-engaging.html&quot; style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;http://chucksblog.emc.com/chucks_blog/2010/06/from-presenting-to-engaging.html&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;blockquote class=&quot;tr_bq&quot;&gt;
&lt;i&gt;&lt;span style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;&quot;went from 40 slides, to 20 slides, to 10 slides, to just a few as conversation starters...&amp;nbsp;&lt;/span&gt;&lt;span style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;And then I took the biggest step of all -- no slides.&quot;&lt;/span&gt;&lt;/i&gt;&lt;/blockquote&gt;
&lt;a href=&quot;http://chucksblog.emc.com/chucks_blog/2013/06/how-i-give-a-really-good-customer-presentation.html&quot; style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;http://chucksblog.emc.com/chucks_blog/2013/06/how-i-give-a-really-good-customer-presentation.html&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;span style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot;&gt;Просто для души&amp;nbsp;почитать:&lt;/span&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;br /&gt;&lt;/span&gt;&lt;a href=&quot;http://presentationzen.blogs.com/&quot; style=&quot;font-family: &#39;Helvetica Neue&#39;, Arial, Helvetica, sans-serif;&quot; target=&quot;_blank&quot;&gt;http://presentationzen.blogs.com&lt;/a&gt;&lt;span style=&quot;font-family: Helvetica Neue, Arial, Helvetica, sans-serif;&quot;&gt;&lt;/span&gt;&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/blog-post.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-257049690232922662</guid><pubDate>Wed, 11 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-11T08:00:02.311+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">AFA</category><category domain="http://www.blogger.com/atom/ns#">big data</category><category domain="http://www.blogger.com/atom/ns#">ceph</category><category domain="http://www.blogger.com/atom/ns#">flash</category><category domain="http://www.blogger.com/atom/ns#">hadoop</category><category domain="http://www.blogger.com/atom/ns#">InfiniFlash</category><category domain="http://www.blogger.com/atom/ns#">Sandisk</category><category domain="http://www.blogger.com/atom/ns#">SSD</category><category domain="http://www.blogger.com/atom/ns#">storage</category><title>Sandisk выходит на новые рынки</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Компания Sandisk, которая всем хорошо известена как производитель флешек и SSD дисков, на днях &lt;a href=&quot;http://www.sandisk.com/about-sandisk/press-room/press-releases/2015/sandisk-creates-new-storage-category-with-infiniflash%E2%84%A2-all-flash-storage-system/&quot; target=&quot;_blank&quot;&gt;представила свои новые продукты&lt;/a&gt;, предназначенные на этот раз вовсе не для домашнего использования. Новинками являются внешние системы хранения InfiniFlash IF100, IF500 и IF700.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
И первое, то бросается в глаза, это конечно прекрасный дизайн передней панели системы InfiniFlash&amp;nbsp;IF100:&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgBDsyiTikhBPKX9fSqg-uG45GsVESGlXHvX2yu0kHPOgDys5lHw7Sqec034pqVZnCvTb4w6D-KaS3EGlBe5pQ2kaU9HwPsTnECfjFPKXg8kKiSxvyZB6WnLlSsqpvJfj9E3S1CpcgibAY/s1600/infiniflash-hardware.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Sandisk InfiniFlash IF100&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgBDsyiTikhBPKX9fSqg-uG45GsVESGlXHvX2yu0kHPOgDys5lHw7Sqec034pqVZnCvTb4w6D-KaS3EGlBe5pQ2kaU9HwPsTnECfjFPKXg8kKiSxvyZB6WnLlSsqpvJfj9E3S1CpcgibAY/s1600/infiniflash-hardware.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Разве может быть что-то круче? &lt;span style=&quot;font-size: x-small;&quot;&gt;Разве что только новый &lt;a href=&quot;http://www.ibm.com/common/ssi/GIF/ALET/JIBMZ13X.JPG&quot; rel=&quot;nofollow&quot; target=&quot;_blank&quot;&gt;IBM z13&lt;/a&gt;.&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
IF100 это не только самостоятельный продукт, но и исходный блок для систем IF500 и IF700. Фактически IF100 это просто JBOF (&lt;b&gt;J&lt;/b&gt;ust a &lt;b&gt;B&lt;/b&gt;unch &lt;b&gt;O&lt;/b&gt;f &lt;b&gt;F&lt;/b&gt;lash) - никакого интеллекта, только мощь, только объем. Всего в 3U размещается половина&amp;nbsp;петабайта (512ТБ или 256ТБ - на выбор)! Помимо фантастической плотности, неоспоримым преимуществом является &amp;nbsp;потребляемая мощность&amp;nbsp;- меньше 0.5кВт. Вот уж точно отличная возможность экономить на счетах за электричество! Система InfiniFlash построена на 64 картах с Flash&amp;nbsp;памятью&amp;nbsp;проприетарного формата, каждая карта имеет объем 8ТБ и является энергонезависимой (выключения питания не страшны).&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh8IbwdaIV_audBAk05zAQze0u7_An5d7nTmE9Wud7P6rb-slODCMbu7KUUBV_A3QqY1L2tOypXJGIwVYPyxAFXOfE7EAAWxu_wrNKz0nLHVSqhYs9UUny8sThm9uJ5L1gKOmru9SDkL-A/s1600/IF100_internal.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Sandisk InfiniFlash IF100 internal&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh8IbwdaIV_audBAk05zAQze0u7_An5d7nTmE9Wud7P6rb-slODCMbu7KUUBV_A3QqY1L2tOypXJGIwVYPyxAFXOfE7EAAWxu_wrNKz0nLHVSqhYs9UUny8sThm9uJ5L1gKOmru9SDkL-A/s1600/IF100_internal.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Система имеет 8 независимых SAS портов для подключения серверов.&amp;nbsp;Традиционно для внешних систем, зарезервированы основные компоненты, такие как вентиляторы и блоки питания. Все основные компоненты могут быть заменены без отключения системы (горячая замена). Однако, что касается самой flash памяти, то никаких средств резервирования нет - только горячая замена отдельных модулей. Пользователь должен сам заботиться о том, чтобы в&amp;nbsp;случае сбоя одной карты или всего JBOF, данные не пропали.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так как IF100 предназначен прежде всего для&amp;nbsp;Hadoop, такое&amp;nbsp;“пренебрежение”&amp;nbsp;отказоустойчивостью оправдано, но есть и одно &quot;но&quot;. Производитель декларирует стоимость порядка 1$ за ГБ. Но, если мы будем защищать данные стандартными средствами, нам потребуется 3 копии, а это уже будет 3$ за ГБ. Звучит конечно не так страшно, но давайте вспомним, что у нас каждая система имеет объем 512ТБ, а&amp;nbsp;это уже 1.5&amp;nbsp;миллиона $. Как говорил крот в небезызвестном мультфильме, “а в год получается&amp;nbsp;не&amp;nbsp;так уж и&amp;nbsp;мало”.&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhlOfo5Um5PCRAe6qAOkQUj_d5msNrQN1gwNKsudQcPm3z7lldXkKrBAb0wATkinPKmlZTvVdQTs4xUqT25we21WIbGN53B0HK2KwAfWN60-FKHxNjgwPlIiCk4raSYUd3yjP9nBU-B0S8/s1600/thumbelina_mole.jpg&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;дюймовочка - крот&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhlOfo5Um5PCRAe6qAOkQUj_d5msNrQN1gwNKsudQcPm3z7lldXkKrBAb0wATkinPKmlZTvVdQTs4xUqT25we21WIbGN53B0HK2KwAfWN60-FKHxNjgwPlIiCk4raSYUd3yjP9nBU-B0S8/s1600/thumbelina_mole.jpg&quot; height=&quot;231&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Единственный способ снизить цену - использовать дисковую емкость для второй и третьей реплики, но это хорошо работает для Hadoop (хотя экономия на энергозатратах уже и не такая большая получается) и совсем не очень хорошо работает для&amp;nbsp;классических бизнес-приложений.&amp;nbsp;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Давайте посмотрим на производительность. Декларируется величина не ниже 780.000 IOPs (данных о времени отклика не приводится&amp;nbsp;- только “меньше 1мс&quot;), хотя в некоторых материалах я видел и другие цифры - до 1 миллиона IOPs (возможно такие значения достигаются в каких-то &quot;хитрых&quot; тестах). С одной стороны, это довольно хороший результат, но, с другой стороны, если мы опять учтем объем системы, то величина совсем не такая уж и фантастическая - меньше 2IOPs &amp;nbsp;на ГБ. Для обычного SSD можно получить в разы и десятки раз более высокие показатели.&amp;nbsp;При этом, номинальный трансфер составляет 7ГБ/сек и это тоже далеко не чудеса производительности - на рынке есть системы, которые показывают результаты лучше.&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если к JBOF IF100 добавить интеллекта, то получится уже IF500 - внутри нее работает&amp;nbsp;InfiniFlash Operating System (OS), которая позволяет строить горизонтально расширяемую систему. IF500 уже полноценная СХД, которая обеспечивает унифицированный доступ (блочный, файловый, объектный - все на базе &lt;a href=&quot;http://ceph.com/&quot; target=&quot;_blank&quot;&gt;Ceph&lt;/a&gt;), а кроме того включает традиционные “enterprise” возможности - мгновенные снимки, репликацию и thin provisioning. В комплект&amp;nbsp;IF500, помимо JBOF IF100, входит и&amp;nbsp;пара серверов, на которых выполняется InfiniFlash OS.&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjBliD6gMB2sx_3VIDeQW15dR9cAmMcLUhZnRgOSJHAPo7JN_TnBQ-gdMNs38wwz42lOfbeIxkKgRSPW3_bJgJfGX5nB4Lhgu1dHGIVMOWj0BBXeth2oY4A66T3J2iTKqpW7MaAsz4dgwE/s1600/InfiniFlash_blocks.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Sandisk InfiniFlash building blocks&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjBliD6gMB2sx_3VIDeQW15dR9cAmMcLUhZnRgOSJHAPo7JN_TnBQ-gdMNs38wwz42lOfbeIxkKgRSPW3_bJgJfGX5nB4Lhgu1dHGIVMOWj0BBXeth2oY4A66T3J2iTKqpW7MaAsz4dgwE/s1600/InfiniFlash_blocks.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Также анонсирована система IF700, которая нацелена скорее на классические&amp;nbsp;бизнес-приложения&amp;nbsp;и включает&amp;nbsp;&lt;a href=&quot;http://ru.sandisk.com/enterprise/appliance/sandisk-ion-accelerator/&quot; target=&quot;_blank&quot;&gt;SanDisk ION Accelerator&lt;/a&gt;, для&amp;nbsp;создания&amp;nbsp;высокопроизводительной системы с блочным доступом (от 128ТБ до 512ТБ). Защита данных, как и в IF100, вновь отдается на откуп прикладному приложению.&amp;nbsp;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Что ж, очень интересное начало! Big data рынок растущий и новые решения будут востребованы. Некоторый скепсис вызывает производительность - здесь я вижу только одну причину&amp;nbsp;странных величин производительности в расчете на объем: в первом поколении систем старались сделать работающую систему с минимально достаточными&amp;nbsp;для узкой задачи параметрами (hadoop). А когда (и если) получится&amp;nbsp;преодолеть системные ограничения новой платформы, начать более активно выводить InfiniFlash и на другие рынки. Пока мне действительно сложно представить новое детище Sandisk где-то вне big data.&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/sandisk.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgBDsyiTikhBPKX9fSqg-uG45GsVESGlXHvX2yu0kHPOgDys5lHw7Sqec034pqVZnCvTb4w6D-KaS3EGlBe5pQ2kaU9HwPsTnECfjFPKXg8kKiSxvyZB6WnLlSsqpvJfj9E3S1CpcgibAY/s72-c/infiniflash-hardware.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7222969959762749990</guid><pubDate>Fri, 06 Mar 2015 14:00:00 +0000</pubDate><atom:updated>2015-03-06T17:00:00.466+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">Aruba Networks</category><category domain="http://www.blogger.com/atom/ns#">HP</category><category domain="http://www.blogger.com/atom/ns#">networking</category><category domain="http://www.blogger.com/atom/ns#">wireless</category><title>HP приобретает Aruba Networks</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
HP &lt;a href=&quot;http://www8.hp.com/hpnext/posts/hp-announcement-march-2015&quot; target=&quot;_blank&quot;&gt;объявили о приобретении Aruba&amp;nbsp;Networks&lt;/a&gt; - компании, которая хорошо известна на рынке беспроводных сетей. Сумма сделки порядка 2.7 млрд$&amp;nbsp;- довольно внушительная сумма, если учитывать результативность&amp;nbsp;прошлых попыток занять твердые позиции на этом&amp;nbsp;рынке. А такие попытки у HP уже&amp;nbsp;были&amp;nbsp;- в 2008 году&amp;nbsp;была приобретена Colubris&amp;nbsp;(кто-то еще помнит&amp;nbsp;про них?). Потом, вместе с приобретением 3Com, была еще одна попытка, но и она не имела серьезного успеха. Да, какие-то wireless&amp;nbsp;продукты есть у HP в линейке и поставляются заказчикам, но в корпоративном секторе&amp;nbsp;о какой-то их&amp;nbsp;значимой доли говорить явно нельзя.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Процесс покупки должен завершиться во второй половине этого года.&amp;nbsp;Интересный вопрос предстоящей сделки - наличие у Aruba Networks множества&amp;nbsp;OEM-соглашений. Технологии Aruba сейчас продают Alcatel-Lucent, Brocade, Dell, Juniper&amp;nbsp;- что предпримут они и что будет предпринимать HP в этом отношении? И конечно, Dell в этом списке интригует больше всего&amp;nbsp;- не будут же они перепродавать продукцию прямого (и самого главного) конкурента, только чтобы сохранить доступ к продуктовой линейке Aruba. Узнаем ли мы о еще одном приобретении, на этот раз Dell-ом, другой сетевой компании или Dell только выберет нового поставщика? Ответ, я думаю, будет уже в этом году.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Я позволю себе короткую&amp;nbsp;цитату из пресс-релиза HP:&amp;nbsp;&lt;/div&gt;
&lt;blockquote class=&quot;tr_bq&quot; style=&quot;text-align: justify;&quot;&gt;
At the same time, the industry is about to go through the next major wave of wireless protocol roll-out with 802.11ac, ushering in another significant change in wireless performance. Over the next 3-5 years, we believe this wave will drive a massive network refresh not just to our customers’ wireless access points, but to their campus switches as well.&lt;/blockquote&gt;
&lt;blockquote class=&quot;tr_bq&quot; style=&quot;text-align: justify;&quot;&gt;
&lt;i&gt;В то же время, индустрию&amp;nbsp;вот-вот подхватит волна внедрения протокола 802.11ac в беспроводные сети, что приведет к очередному скачку производительности. Мы считаем, что в течение ближайших 3-5 лет&amp;nbsp;это&amp;nbsp;станет причиной не только&amp;nbsp;массовой замены беспроводных точек доступа, но и коммутаторов во всем&amp;nbsp;кампус. (перевод мой)&lt;/i&gt;&lt;/blockquote&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Все это безусловно верно&amp;nbsp;и текущая ситуация создает очень&amp;nbsp;неплохую перспективу&amp;nbsp;на ближайшие годы. Но хочется надеяться, что весь накопленный в Aruba потенциал R&amp;amp;D не похоронят в ближайшие год-два, а, напротив,&amp;nbsp;получится его эффективно использовать для развития всего сетевого направления. А это, в свою очередь,&amp;nbsp;даст возможность серьезно конкурировать с Cisco&amp;nbsp;на ее поле.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/hp-aruba-networks.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-4766800308452594783</guid><pubDate>Fri, 06 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-06T08:00:01.894+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">FlashSystem</category><category domain="http://www.blogger.com/atom/ns#">IBM</category><category domain="http://www.blogger.com/atom/ns#">RAID</category><category domain="http://www.blogger.com/atom/ns#">VSR</category><title>IBM FlashSystem - что за RAID внутри?</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;br /&gt;
&lt;div style=&quot;clear: left; float: left; margin-bottom: 1em; margin-right: 1em; text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;/div&gt;
&lt;div style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;
&lt;/div&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Раз я упомянул &lt;a href=&quot;http://2015/03/ibm-flashsystem-900-v9000.html&quot; target=&quot;_blank&quot;&gt;анонс новых систем&amp;nbsp; IBM FlashSystem&lt;/a&gt; 900 и V9000, то наверное стоит немного уделить внимания уникальной “фишке” этих систем - реализации отказоустойчивости.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В&amp;nbsp; FlashSystem используется RAID5 для защиты от сбоя всего модуля MicroLatency, но это далеко не единственная технология, обеспечивающая&amp;nbsp;отказоустойчивость:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;RAID5 защищает систему от сбоя модуля. В зависимости от числа модулей, конфигурация массива&amp;nbsp;вальируется&amp;nbsp;от 2D+1P+1HS, до 10D+1P+1HS. В системе всегда только один RAID массив&amp;nbsp;для модулей, поэтому объем всех модулей должен быть одинаковым&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;RAID5 внутри каждого модуля защищает от сбоя отдельного чипа&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Variable&amp;nbsp;Stripe RAID внутри каждого модуля&amp;nbsp;защищает от частичного сбоя чипов NAND&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;ECC на уровне чипа защищают от битовых и блочных ошибок&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кроме того, как и в любых&amp;nbsp;системах на базе flash, присутствует зарезервированное пространство, которое используется когда очередная ячейка выходит из строя.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Совместное использование&amp;nbsp;двух&amp;nbsp;уровней RAID (&quot;внутри” отдельных&amp;nbsp;модулей и между всеми модулями) и носит фирменное название &lt;b&gt;2D RAID&lt;/b&gt; (two-dimensional&amp;nbsp;RAID).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Благодаря такой многоуровневой защите&amp;nbsp;можно минимизировать возникновение ошибок, приводящих к необходимости менять целый модуль MicroLatency. Кроме того, сохраняется возможность использовать RAID5 (а не RAID6)&amp;nbsp;и не сталкиваться с повышенными рисками множественных ошибок&amp;nbsp;(хотя объем самих модулей может достигать 5.7ТБ). &amp;nbsp;&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Технология RAID “внутри”&amp;nbsp;модуля MicroLatency была запатентована еще компанией TMS (где и родились предшественники нынешних FlashSystem - &amp;nbsp;тогда они назывались RamSAN)&amp;nbsp;и носит название&amp;nbsp;&lt;b&gt;Variable Stripe RAID&lt;/b&gt; (&lt;b&gt;VSR&lt;/b&gt;). Она позволяет не просто обеспечить отказоустойчивость при большинстве частичных сбоев внутри модуля, но и&amp;nbsp;позволяет&amp;nbsp;&amp;nbsp;большой срок службы модуля, а это, в свою очередь, снижает&amp;nbsp; стоимость, так как&amp;nbsp;&amp;nbsp;не нужно закладывать дополнительные расходы на “лишние&quot; замены в гарантийный срок.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Каждый MicroLatency модуль имеет внутри несколько чипов Flash и 4 FPGA контроллера, которые и реализуют VSR. Каждый из этих контроллеров, в свою очередь,&amp;nbsp;“отвечает” не более чем за 20&amp;nbsp;чипов. Но RAID внутри модуля построен не на уровне чипов, а на уровне слоя (plane) в отдельных чипах (по 16 слоев в каждом чипе). Все это позволяет спокойно пережить&amp;nbsp;сбой&amp;nbsp;до 256 блоков перед тем как весь слой будет считаться сбойным. Чтобы модуль все-таки вышел из строя&amp;nbsp;необходимо, как минимум:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;признать сбойными&amp;nbsp; 64 слоя&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;сбой 4&amp;nbsp;чипов в модуле&amp;nbsp;целиком&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Таким образом, разработчики FlashSystem постарались сделать все возможное, чтобы продлить жизнь отдельного модуля MicroLatency и обеспечить отказоустойчивость.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Отличительной особенностью VSR является:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;RAID защищает не отдельный чип, а только слой чипа. Это позволяет гораздо&amp;nbsp;эффективнее использовать модули,&amp;nbsp;не производя лишних замен и перестроений массивов;&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;страйп&amp;nbsp;не фиксирован в размере&amp;nbsp;-&amp;nbsp;в зависимости от состояния слоев, он может быть не в&amp;nbsp;стандартной конфигурации 9D+1P, а 8D+1P, 7D+1P или 6D+1P.&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Именно вариативный размер страйпа позволяет максимизировать объем полезного пространства в&amp;nbsp;модуле, не “отбраковывая” рабочие части остальных чипов. Давайте посмотрим как это работает. В случае, когда мы используем обычный RAID-массив (пусть даже и на уровне слоя микросхемы), сбой в любом из слоев приведет к тому, что нам будет нужно исключить все такие же (еще рабочие!) слои остальных чипов, чтобы сохранить архитектуру массива:&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjm8Kv1LbOvQsrsOjDN-IJDxueRovbG9NyRYKcjeI7os67nY1WamMCsSna0Z5ruB1TGFTOhHjJTW3Udi2UhRM91VVz_vgTOmfBkX2RtPWe6lTryJeFwLTYYqyEeKMSKJtiXT9iZ0yY9owQ/s1600/VSR_example2.png&quot; imageanchor=&quot;1&quot;&gt;&lt;img alt=&quot;Сбой на обычном RAID массиве&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjm8Kv1LbOvQsrsOjDN-IJDxueRovbG9NyRYKcjeI7os67nY1WamMCsSna0Z5ruB1TGFTOhHjJTW3Udi2UhRM91VVz_vgTOmfBkX2RtPWe6lTryJeFwLTYYqyEeKMSKJtiXT9iZ0yY9owQ/s1600/VSR_example2.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
При использовании Variable Stripe RAID, нам достаточно перестроить страйп&amp;nbsp;на меньшем количестве элементов:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjO99Snl9AXimE-Vf2GaxWvlH2cw4S57ETfkrP5lEAWbSMvzjet79Z28uFQ8AY1Wx3cpag26e_Anp30XiqQ_gGV6MjP4tzu3nOcaZgQROI-lRGmx4ldH9kD4eZgGD_kRonNPTo_NddagGc/s1600/VSR_example.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;Сбой в массиве Variabe Stripe RAID&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjO99Snl9AXimE-Vf2GaxWvlH2cw4S57ETfkrP5lEAWbSMvzjet79Z28uFQ8AY1Wx3cpag26e_Anp30XiqQ_gGV6MjP4tzu3nOcaZgQROI-lRGmx4ldH9kD4eZgGD_kRonNPTo_NddagGc/s1600/VSR_example.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Т.е. мы потеряем только малую часть одного чипа и не потеряем в скорости для имеющихся данных. Так как сбои чаще всего происходят не на уровне всей микросхемы, а на уровне отдельных блоков, мы получаем прекрасную возможность избежать лишних перестроений массивов, “отбрасывания” целых чипов из-за сбоя в одном слое&amp;nbsp;и, разумеется, гораздо быстрее можем исправить проблему, так как в перестроении участвует лишь очень малая часть данных.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кроме того, VSR работает “внутри” каждого модуля, не&amp;nbsp;требуя для восстановления &quot;перекачки&quot; данных к центральному процессору или &amp;nbsp;FPGA, отвечающему за RAID на&amp;nbsp;уровне системы. А это, в свою очередь, позволяет избежать деградации производительности при перестроении массивов, что для All&amp;nbsp;Flash систем, где мы ожидаем получить гарантированный уровень производительности, очень важно.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
И вот только в том случае, когда исчерпаны все “внутренние” ресурсы MicroLatency модуля по обеспечению отказоустойчивости, система использует RAID5 между модулями и задействует spare модуль для перестроения массива.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Что почитать:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://www.redbooks.ibm.com/redbooks.nsf/searchsite?SearchView&amp;amp;query=Flashsystem&quot; target=&quot;_blank&quot;&gt;IBM Redbooks&lt;/a&gt;&amp;nbsp;про FlashSystem&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;https://www.google.com/patents/US8484415&quot; target=&quot;_blank&quot;&gt;Патент TMS на технологию VSR&lt;/a&gt;&amp;nbsp;- здесь все очень подробно&amp;nbsp;про VSR&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/ibm-flashsystem-raid.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjm8Kv1LbOvQsrsOjDN-IJDxueRovbG9NyRYKcjeI7os67nY1WamMCsSna0Z5ruB1TGFTOhHjJTW3Udi2UhRM91VVz_vgTOmfBkX2RtPWe6lTryJeFwLTYYqyEeKMSKJtiXT9iZ0yY9owQ/s72-c/VSR_example2.png" height="72" width="72"/><thr:total>2</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-4435489522518377177</guid><pubDate>Wed, 04 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-05T06:27:36.879+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">HP</category><category domain="http://www.blogger.com/atom/ns#">LeftHand</category><category domain="http://www.blogger.com/atom/ns#">StoreVirtual</category><title>Вышла LeftHand OS 12</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div&gt;
&lt;a data-mce-href=&quot;https://h20392.www2.hp.com/portal/swdepot/displayProductInfo.do?productNumber=StoreVirtualSW#sv-existing&quot; href=&quot;https://h20392.www2.hp.com/portal/swdepot/displayProductInfo.do?productNumber=StoreVirtualSW#sv-existing&quot; shape=&quot;rect&quot; target=&quot;_blank&quot;&gt;Вышла&lt;/a&gt; версия 12 LeftHand OS для систем HP StoreVirtual.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Изменений не очень много, но есть и интересные:&lt;/div&gt;
&lt;ul style=&quot;text-align: justify;&quot;&gt;
&lt;li&gt;Space
 Reclamation - теперь системы StoreVirtual поддерживают T10 UNMAP, что 
позволяет возвращать неиспользуемое дисковое пространство обратно в пул. Поддерживается как в VMware,&amp;nbsp; так и в Windows.&lt;/li&gt;
&lt;li&gt;HP
 StoreVirtual Multipathing Extension Module (MEM) - этот модуль оптимизирует доступ к данным по разным путям в vSphere 5.x (является аналогом 
StoreVirtual DSM для Microsoft MPIO). MEM, кроме того, оптимизирует трафик и в 
мультисайтовых конфигурациях.&lt;/li&gt;
&lt;li&gt;Новый REST API - поддержка основных функций (выделение дискового пространства, создание и модификация пулов) через web based API.&lt;/li&gt;
&lt;li&gt;Увеличена производительность репликации, а также скорость загрузки системы.&lt;/li&gt;
&lt;/ul&gt;
&lt;span style=&quot;text-align: justify;&quot;&gt;Новость не касается владельцев конвергентных систем HP 200-HC StoreVirtual - пока версия 12 для них не сертифицирована.&lt;/span&gt;&lt;br /&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Стоит напомнить, что сейчас любой обладатель сервера на базе процессора Intel Xeon E5v3 имеет вполне легальную и &lt;strong&gt;бесплатную&lt;/strong&gt; возможность использовать HP StoreVirtual VSA с объемом дискового хранилища 1ТБ. Лицензию можно зарегистрировать &lt;a data-mce-href=&quot;https://h20392.www2.hp.com/portal/swdepot/displayProductInfo.do?productNumber=VSA1TB-S&quot; href=&quot;https://h20392.www2.hp.com/portal/swdepot/displayProductInfo.do?productNumber=VSA1TB-S&quot; shape=&quot;rect&quot; target=&quot;_blank&quot;&gt;здесь&lt;/a&gt;. В комплекте нет только поддержки Adaptive Optimization (автоматическая миграция &quot;горячих&quot; данных на более быстрые диски). Да, cервер может быть любой! Совсем не обязательно быть покупателем техники HP.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
StoreVirtual VSA (в бесплатном варианте или в виде demo-лицензии) замечательно подходит для ознакомления с продуктом - можно посмотреть все возможности, протестировать свое ПО. И, если все тесты увенчались успехом, можно смело переезжать на &quot;железную&quot; реализацию, а можно и остаться на VSA, если производительности хватает.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/lefthand-os-12.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-6796131096415198764</guid><pubDate>Tue, 03 Mar 2015 05:00:00 +0000</pubDate><atom:updated>2015-03-03T17:31:55.862+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">AFA</category><category domain="http://www.blogger.com/atom/ns#">FlashSystem</category><category domain="http://www.blogger.com/atom/ns#">HDS</category><category domain="http://www.blogger.com/atom/ns#">IBM</category><category domain="http://www.blogger.com/atom/ns#">Spectrum</category><category domain="http://www.blogger.com/atom/ns#">storage</category><category domain="http://www.blogger.com/atom/ns#">SVC</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><title>IBM FlashSystem 900 и V9000</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Совсем недавно &lt;a href=&quot;http://www-03.ibm.com/press/us/en/pressrelease/46117.wss&quot; target=&quot;_blank&quot;&gt;были анонсированы&lt;/a&gt; новые системы хранения All Flash&amp;nbsp;Array от IBM -&amp;nbsp;FlashSystem 900 и V9000. Странно, но, как я уже &lt;a href=&quot;http://exlh.blogspot.ru/2015/02/ibm.html&quot; target=&quot;_blank&quot;&gt;писал&lt;/a&gt;, линейка FlashSystem не попала в “программу переименования за миллиард”, хотя интегрированная система FlashSystem V9000 вот уж точно должна была бы стать частью портфеля Spectrum.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgWe-QO4ISLF3zsK_CGz6OYfB5-VDJKynXhjb5LQr31oZEiCI34hGu-jjT__35sRpVtTBq6gxthHwBnoWeFpC_ZgUI9eZBLUCaztIizSUtuK-z0g9sIg6gPS6ZvMIjfCEfMnPkH1j7EKd0/s1600/flashsystem_900_front.gif&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;IBM FlashSystem 900&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgWe-QO4ISLF3zsK_CGz6OYfB5-VDJKynXhjb5LQr31oZEiCI34hGu-jjT__35sRpVtTBq6gxthHwBnoWeFpC_ZgUI9eZBLUCaztIizSUtuK-z0g9sIg6gPS6ZvMIjfCEfMnPkH1j7EKd0/s1600/flashsystem_900_front.gif&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В основе архитектуры IBM FlashSystem лежит идея о минимизации задержек на всем пути от внешнего интерфейса до чипа flash-памяти, на котором непосредственно и хранятся данные. Именно это позволяет получить очень хорошие результаты&amp;nbsp;по производительности. Важно отметить, что когда мы говорим о производительности AllFlash систем, оценивать нужно не количество IOPs - их набрать не так уж и сложно, а&amp;nbsp;в первую очередь о как можно низкой задержке (latency). Хорошим результатом можно считать результат меньше 1мс, но борьба уже идет за 500мкс и ниже.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В то время&amp;nbsp;как многие другие производители &lt;a href=&quot;http://exlh.blogspot.ru/2014/03/asic.html&quot; target=&quot;_blank&quot;&gt;активно используют&lt;/a&gt; стандартные&amp;nbsp;процессоры в “ядре” своих СХД, IBM для FlashSystem продолжает выдерживать “железный” подход (&quot;hardware only datapath”), когда вместо программного кода (пусть даже на разновидности &amp;nbsp;real time OS) активно используются FPGA и кастомизированные компоненты.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Примечательно, что в системе используются не стандартные SSD диски, а специальные модули (MicroLatency Modules), это позволяет избежать “лишних” интерфейсов, а&amp;nbsp;следовательно и лишних задержек. В 900й серии&amp;nbsp;использование таких модулей&amp;nbsp;позволяет обеспечить латентность 90мкс на запись и 155мкс на чтение. При этом объем одного такого модуля может достигать 5.7ТБ В прошлой серии (840) использовались eMLC (enterprise multi-level cell) чипы, в новой же системе перешли на использование более дешевых, но усовершенствованных MLC чипов от Micron&amp;nbsp;(IBM&amp;nbsp;Enhanced MLC). Смешно, но здесь машина IBM по созданию акронимов нашла на камень - не так уж просто будет объяснить клиентам чем eMLC отличается от E-MLC, поэтому наверное решили “Enhanced” в&amp;nbsp;названии оставить без сокращений. :)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Хотя FlashSystem 900 и имеет фиксированную конфигурацию (только&amp;nbsp;один модуль), но обладает необходимыми&amp;nbsp;возможностями, для того, чтобы использовать систему&amp;nbsp;для tier-1 приложений:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;обновление микрокода&amp;nbsp;без остановки (не требуется даже снижать нагрузку)&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;возможность заменить на ходу любой из компонентов системы&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;избыточность всех компонентов&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;шифрование данных (AES-XTS&amp;nbsp;256) без потери производительности&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Полезная емкость системы варьируется в зависимости от объема и количества используемых MicroLatency модулей. Минимальный полезный объем - 2.4ТБ, а максимальный&amp;nbsp;- 57ТБ. Важно помнить, что смешивать модули разного объема в одной системе нельзя, поэтому стоит аккуратнее просчитывать необходимые перспективы расширения.&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiwwurt9PJVy7Q1pMSQG2YSMgWc8vZ88YGqydqHARJK1D9-P93O-1BBw16iyIl5PnoAhuItyA0nvFaiu2UuNZUGlbgZwhns6nRMkLK41p1NyBaL6M4fqGSreGHAFu-SMGO3hWGFaYG3l04/s1600/FlashSystem_900_back.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;IBM FlashSystem 900 back&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiwwurt9PJVy7Q1pMSQG2YSMgWc8vZ88YGqydqHARJK1D9-P93O-1BBw16iyIl5PnoAhuItyA0nvFaiu2UuNZUGlbgZwhns6nRMkLK41p1NyBaL6M4fqGSreGHAFu-SMGO3hWGFaYG3l04/s1600/FlashSystem_900_back.png&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Для подключения СХД к серверам можно использовать различные интерфейсы:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Fibre Channel (FC)&amp;nbsp;- 8*16Gbit&amp;nbsp; или 16*8Gbit&amp;nbsp;&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Fibre Channel over Ethernet (FCoE) - 16*10Gbit&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;iSCSI - 16*10Gbit&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Infiniband - 8*40Gbit (QDR)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Все интерфейсные карты в системе должны быть одинаковыми и “смешивать” протоколы в рамках одной системы нельзя.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Декларируется, что FlashSystem 900 &amp;nbsp;может обеспечить до 1.1 миллиона случайных операций чтения 4КБ блоков&amp;nbsp;и до 10ГБ/сек поток на чтение данных. Для операций записи (100% random) - 600.000 IOPs и 4.5ГБ/сек.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Результатом гонки за минимизацией задержек стало&amp;nbsp;полное отсутствие&amp;nbsp;таких привычных для систем энтерпрайз-класса &quot;фишек&quot; как мгновенные снимки, репликация, компрессия, thin provisioning. Если какие-то из этих возможностей действительно необходимы, то у заказчика есть два пути: подключить FlashSystem 900 к своей системе виртуализации СХД&amp;nbsp;(это &amp;nbsp;может быть например SVC или V7000), либо приобрести уже интегрированную систему&amp;nbsp;FlashSystem V9000.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgZTKIwIk01DNbJQ1Mvd9K0TiXOsTE6StQ_uCV6plTKnm12yIaUsYPirczf8aomCkdtabe52av7epBQvsiIF44st90OPdTklllAUc6AO_XaLgmDdSmL0YJiEP7G2kCfBUyYRxWaKz-z3mQ/s1600/flashsystem_v9000_front.gif&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;IBM FlashSystem V9000&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgZTKIwIk01DNbJQ1Mvd9K0TiXOsTE6StQ_uCV6plTKnm12yIaUsYPirczf8aomCkdtabe52av7epBQvsiIF44st90OPdTklllAUc6AO_XaLgmDdSmL0YJiEP7G2kCfBUyYRxWaKz-z3mQ/s1600/flashsystem_v9000_front.gif&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
По сути это своего рода гибрид из IBM SVC и FlashSystem 900, но это именно гибрид, а не просто две системы объединенные общей фронтальной&amp;nbsp;заглушкой, как могло бы показаться&amp;nbsp;с первого взгляда. Если мы подключаем FlashSystem к SVC, то мы должны управлять двумя системами, в то время как для V9000 мы имеем единую систему управления.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhielTekV71MhoiVPv71q4pL9vnsCViOI2NAyhlD9fhgBRP7Gt6pVrsOP9yivYcniplFk9wt4fNsvzO-BUSQb6U_Zd4FnNi3862YdJa_SWijjCc-Ncyljp7N74P-q5FImnwk8GZTalyrcw/s1600/V9000_full_config.png&quot; imageanchor=&quot;1&quot; style=&quot;clear: left; float: left; margin-bottom: 1em; margin-right: 1em;&quot;&gt;&lt;img border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhielTekV71MhoiVPv71q4pL9vnsCViOI2NAyhlD9fhgBRP7Gt6pVrsOP9yivYcniplFk9wt4fNsvzO-BUSQb6U_Zd4FnNi3862YdJa_SWijjCc-Ncyljp7N74P-q5FImnwk8GZTalyrcw/s1600/V9000_full_config.png&quot; height=&quot;200&quot; width=&quot;71&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Во-первых V9000&amp;nbsp;позволяет расширяться как “вертикально” - добавив до 4х&amp;nbsp;storage enclosures (до 57ТБ каждый), так и “горизонтально” - доведя количество контроллеров V9000 с двух до восьми (4 системы V9000 в кластере).&amp;nbsp;Такое расширение позволит получить до 456ТБ полезного пространства исключительно на Flash. А если учесть возможности RealTime Compression, то мы получим уже 2.2ПБ полезной&amp;nbsp;емкости. И это всего в 34U - достаточно одного(!) серверного шкафа, чтобы вместить весь этот ураган производительности&amp;nbsp;и обеспечить такой объем.&amp;nbsp;Но и это еще не все - можно использовать V9000 и как обычный виртуализатор СХД - все-таки это и SVC тоже, а значит можно к нему подключить имеющиеся системы и использовать на них такие возможности как thin provisioning, снапшоты и многие другие.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кроме того, поддерживается репликация между V9000 и системами SVC, V7000 - можно строить катастрофоустойчивые решения на базе AllFlash системы IBM. По понятным причинам (полку с Flash модулями нельзя поделить между площадками) не поддерживается конфигурация распределенного кластера (streched cluster).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конечно, программная “прослойка” между FlashSystem и серверами не обходится даром, поэтому мы вынуждены заплатить&amp;nbsp;латентностью, но плата эта не так уж велика - мы все равно получаем 200мкс на чтение, а это действительно очень мало. Кроме того, за счет использования &quot;горизонтального”&amp;nbsp;масштабирования мы можем получить до 2.5 миллионов IOPs&amp;nbsp; и поток до 19.2ГБ/сек (блоками по 128КБ). А за счет&amp;nbsp;поддержки QoS в V9000 можно гарантировать приложениям требуемый уровень производительности дисковой системы.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Таким образом, FlashSystem 900 нацелена на тех заказчиков, которым нужна экстремально&amp;nbsp;высокая производительность&amp;nbsp;и они готовы пожертвовать программным функционалом систем enterprise-уровня&amp;nbsp;(но хотят сохранить enterprise уровень отказоустойчивости и управляемости). Интегрированная система&amp;nbsp;FlashSystem V9000&amp;nbsp;ориентирована на заказчиков, которым требуется не только производительность, но и возможность расширить систему, получить богатый программный функционал и возможность защитить данные с помощью репликации. Кроме того, V9000 может быть интересна тем, кто еще не имеет enterprise СХД в своем ЦОД, рассматривает возможности консолидации своих дисковых систем за счет виртуализации.&lt;br /&gt;
&lt;br /&gt;
С нетерпением жду результатов &lt;a href=&quot;http://www.storageperformance.org/home/&quot; target=&quot;_blank&quot;&gt;SPC&lt;/a&gt; - IBM любит эти тесты. Как раз недавно неожиданно &lt;a href=&quot;http://www.storageperformance.org/benchmark_results_files/SPC-1/HDS/A00153_Hitachi_VSP-G1000-HAF/a00153_Hitachi_VSP-G1000-HAF_SPC-1_executive-summary.pdf&quot; target=&quot;_blank&quot;&gt;отметились&lt;/a&gt; HDS со своей системой VSP G1000, показав отличный результат в 2М IOPs при цене 1$ за IOPs. Вот только чтобы достигнуть цену в 1$ за IOPs пришлось дать почти 60% скидку на железо, зато теперь в лидерах рейтинга.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/03/ibm-flashsystem-900-v9000.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgWe-QO4ISLF3zsK_CGz6OYfB5-VDJKynXhjb5LQr31oZEiCI34hGu-jjT__35sRpVtTBq6gxthHwBnoWeFpC_ZgUI9eZBLUCaztIizSUtuK-z0g9sIg6gPS6ZvMIjfCEfMnPkH1j7EKd0/s72-c/flashsystem_900_front.gif" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-2193480642761451084</guid><pubDate>Thu, 26 Feb 2015 05:00:00 +0000</pubDate><atom:updated>2015-02-26T08:00:05.802+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">Protocol Endpoint</category><category domain="http://www.blogger.com/atom/ns#">SPBM</category><category domain="http://www.blogger.com/atom/ns#">storage</category><category domain="http://www.blogger.com/atom/ns#">VAAI</category><category domain="http://www.blogger.com/atom/ns#">VASA Provider</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><category domain="http://www.blogger.com/atom/ns#">VVol</category><title>VMware Virual Volumes (VVols)</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Разбираясь в старых бумагах, нашел свой черновик с записями про VVol&amp;nbsp; - тогда информация про технологию только начала появляться. Не буду скрывать, на тот момент у меня было очень много вопросов к выбранному пути развития (назвать полноценной реализацией это еще было сложно). Почему записи остались только в черновике - уже и не вспомню, перечитал, немного скорректировал и пусть будут теперь здесь.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Наверняка, за прошедшее с момента первого упоминания время, все не по одному разу слышали что VVols это хорошо, удобно и круто. Но почему?&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Подход VMware к развитию инфраструктуры виртуализации понятен - &quot;виртуальный&quot; администратор (он, конечно вполне реальный, но занимается только виртуализацией) должен иметь возможность максимально просто, удобно и без привлечения других сотрудников разворачивать необходимые бизнесу сервисы. И основной упор должен быть именно на &quot;без привлечения других&quot; - именно это чаще всего и будет &quot;бутылочным горлышком&quot; в скорости развертывания. А следовательно, участие администраторов, отвечающих за системы хранения и сетевую инфраструктуру, должно быть минимальным - желательно ограничиться только начальной настройкой.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Можно конечно все функции управления &quot;загнать&quot; в vCenter с помощью плагинов, тогда управлять всем оборудованием можно будет из &quot;одного окна&quot;. Это вполне удобно, когда у нас небольшая (и сравнительно простая инфраструктура), но как только появляется несколько систем хранения, знаний специалиста по VMware может оказаться недостаточно и, хотя настроить все можно из одной консоли, но занимаются этим снова разные сотрудники.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Помимо того, чтобы упростить развертывание (и обслуживание) виртуальных машин, стоит еще и задача не вносить в гипервизор излишний функционал, который утяжеляет и усложняет работу. Часть функционала дисковых систем можно благодаря VAAI (vStorage APIs for Array Integration). В частности, поддержка Clone Blocks/Full Copy/XCOPY примитива позволяет копировать данные на уровне СХД, не передавая их гипервизору и обратно на массив. Несмотря на все плюсы, VAAI не дает существенных преимуществ как в момент непосредственного развертывания виртуальных машин, так и не слишком помогает в управлении жизненным циклом системы в разрезе конкретных виртуальных машин.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Что сейчас происходит при создании виртуальной машины? Администратор выбирает подходящий datastore - не только исходя из свободного объема, но и в зависимости от того, какая нагрузка будет на виртуальной машине, насколько уже сейчас нагружен тот или иной datastore, а также он должен принимать во внимание поддерживаемый функционал системы хранения. Если датастор еще не создан, то мы обращаемся к администраторам СХД, которые создают LUN, настраивают доступ к хостам. Не исключено, что придется также вносить изменения в сеть хранения (зонирование). После развертывания виртуальной машины, нам нужно следить за производительностью дисковой системы. Можно настраивать QoS на разных уровнях и, скорее всего, также потребуется привлечь администратора СХД.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Можно было бы предположить экстремальное решение - создать достаточно большое число LUNов и распределить по ним виртуальные машины. Ведь чем больше будет число созданных LUN, тем большую гибкость мы получаем! Идеальная ситуация - создать по одному LUN для каждой виртуальной машины, тогда мы можем очень гибко управлять ими. С другой стороны, повышается overprovisioning и управлять системой с большим числом разделов - это настоящий ад для администратора! Да и ESXi имеет ограничение на число подключаемых LUN, что тоже требуется учитывать при планировании системы. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Таким образом, требовалось создать такое решение, которое бы позволило:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;снять нагрузку с администраторов СХД (создал раздел из SSD дисков, раздел из SAS дисков и раздел из NL SAS дисков - и дальше пусть специалисты по виртуализации сами с ними разбираются)&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;обеспечить максимальную гибкость для управления каждой из виртуальных машин&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;автоматизировать большинство операциq&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;не перегружать гипервизор (ESXi) и систему управления (vCenter) аппаратно-зависимыми модулями&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;получить унифицированное решение, которое не &quot;привязано&quot; к конкретным системам хранения&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Виртуальные разделы (Virtual Volumes, VVols) и были предложены в качестве такого решения. По сути своей, VVol это еще один уровень абстракции, который отделяет систему хранения данных от гипервизора. Давайте в этом разрезе и посмотрим на основные компоненты решения.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Прежде всего, сам &lt;strong&gt;виртуальный раздел Virtual Volume (VVol)&lt;/strong&gt; - это своего рода контейнер, в котором хранится информация, необходимая&amp;nbsp;виртуальной машине - это может быть конфигурация, swap или непосредственно данные, которые мы привыкли обычно видеть в vmdk файле. Любой элемент виртуальной машины, который ранее требовал создания файла в vmfs (или nfs), теперь является отдельным виртуальным томом. Каждая виртуальная машина включает несколько&amp;nbsp;VVols, количество которых меняется, в зависимости от состояния машины (наличия снимков и т.п.):&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;
&lt;/div&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li&gt;&lt;span style=&quot;font-family: &#39;Open Sans&#39;, Helvetica, Arial, sans-serif; font-size: 14px; text-align: justify;&quot;&gt;1 VVol для конфигурации виртуальной машины (метаданные&amp;nbsp;- .vmx файл, дескрипторы виртуальных дисков, логи и т.п.)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;font-family: &#39;Open Sans&#39;, Helvetica, Arial, sans-serif; font-size: 14px; text-align: justify;&quot;&gt;1 VVol для каждого виртуального диска (.vmdk)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;font-family: &#39;Open Sans&#39;, Helvetica, Arial, sans-serif; font-size: 14px; text-align: justify;&quot;&gt;1 VVol для swap (если используется)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;font-family: &#39;Open Sans&#39;, Helvetica, Arial, sans-serif; font-size: 14px; text-align: justify;&quot;&gt;1 VVol для снапшота каждого диска + 1 VVol для снимка памяти&lt;/span&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEbx14elBXvCU9_LE_1Dv0KqcwuYWUWstzTR4iNdvQ7qi8KllrYx4nSGPAVJKOwh5CuyksCgQXMDoMR7AzPiTVbKtbniS63tym7-VQomDEFwBBsjF_y50b7aBtYXs1l86EPJqwkRWQvQc/s1600/pic_01.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VVols_1&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEbx14elBXvCU9_LE_1Dv0KqcwuYWUWstzTR4iNdvQ7qi8KllrYx4nSGPAVJKOwh5CuyksCgQXMDoMR7AzPiTVbKtbniS63tym7-VQomDEFwBBsjF_y50b7aBtYXs1l86EPJqwkRWQvQc/s1600/pic_01.png&quot; height=&quot;230&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
VVol это только некий виртуальный контейнер - это не LUN (по крайней мере, он им не обязан быть) и не точка монтирования NFS - реализация VVol на уровне системы хранения остается в руках производителя СХД. Для гипервизора же это просто абстрактный объект с данными, с которыми можно работать по SCSI протоколу, как и с любыми другими данными, находящимися в vmdk файле. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Первое, что нам нужно - научиться создавать и управлять виртуальными томами. Управлять созданием и размещением VVols должен не каждый отдельный хост ESXi, а сервер управления vCenter Server, поэтому слой управления (control plane) логично отделить от канала передачи данных&amp;nbsp;(data plane). Кроме того, система управления виртуальными томами может быть реализована каждым производителем систем&amp;nbsp;хранения по-своему, т.е. она должна быть &quot;вне&quot; vCenter Server. Этот программный компонент, обеспечивающий управление виртуальными томами, носит название &lt;strong&gt;VASA Provider&lt;/strong&gt;. В его задачи входит в том числе предоставление информации о топологии и текущем состоянии СХД, а также о поддерживаемых возможностях системы хранения. Посредством vSphere APIs for Storage Awareness&amp;nbsp;(VASA) данные передаются в vCenter Server и хосты ESXi. VASA Provider может быть реализован как “внутри&quot; системы хранения (HP 3Par), так и в виде отдельной виртуальной машины (NetApp FAS).&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEguksHbzLI8Cnc8wvFX-bJHvVdFY9ce0kbZKSILDCc3OIGPpmUaI4WD2YGR1mYWjQXGWu-uA86NwUD31xJP8YQRS9UIkdhqw937wdNb00ySVLleQzdZYVOfW-CCue7Krvno1z57_Tjbnxs/s1600/pic_2.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VVol_2&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEguksHbzLI8Cnc8wvFX-bJHvVdFY9ce0kbZKSILDCc3OIGPpmUaI4WD2YGR1mYWjQXGWu-uA86NwUD31xJP8YQRS9UIkdhqw937wdNb00ySVLleQzdZYVOfW-CCue7Krvno1z57_Tjbnxs/s1600/pic_2.png&quot; height=&quot;294&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Следующей задачей является обеспечение доступа гипервизора (ESXi) к данным, которые находятся внутри VVol. С одной стороны, есть изначально реализованный механизм DataStore, с которым все привыкли работать. С другой стороны, у нас есть множество VVols, которые можно сгруппировать по используемым&amp;nbsp;возможностям системы хранения. Например, одни тома могут быть созданы на дисках SAS и для них настроена аппаратная репликация, другие тома созданы на дисках SSD и для них репликация не используется. Логично объединить такие VVol в группы (&lt;strong&gt;Storage Containers&lt;/strong&gt;)&amp;nbsp;- &amp;nbsp;это еще один важный термин в новой системе. По своим параметрам Storage Container очень напоминает уже привычный LUN или раздел NFS&amp;nbsp;- там хранятся данные наших виртуальных машин.&amp;nbsp; Однако, Storage Container отличается тем, что он не является жестко ограниченным ресурсом (как LUN), а представляет собой пулл “грязного” (raw) дискового пространства, на котором можно создать нужные VVols. VASA Provider сообщает всю необходимую информацию серверу vCenter и хостам ESXi. Хост ESXi не может получить доступ к Storage Container через SCSI команды или NFS RPC&amp;nbsp;- вся информация передается только через VASA провайдер. Когда мы хотим создать VVol для виртуальной машины, мы должны сначала подключить новый DataStore, для которого vCenter &quot;предложит&quot; нам (если мы конечно все правильно настроили) предварительно созданный Storage Container. За создание Storage Container отвечает администратор системы хранения, скорее всего, он их создаст несколько (зачем - чуть позже). Всю остальную работу по распределению ресурсов уже берет на себя vCenter и аднимистратор виртуальной инфраструктуры.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivvU8TOPH9noSEKNTsU_2FgFSsFbksdxSfDsqKI9whqCbV8hxjWqSNBvtbsd8rNU2akjtJoVo5Um8FpDlcP4TezNokueuyp7JT_RhTyLv6PlYHCjugh2daE8z8aAKjXxpT-gEslM1AuSQ/s1600/pic_3.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VVol_3&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivvU8TOPH9noSEKNTsU_2FgFSsFbksdxSfDsqKI9whqCbV8hxjWqSNBvtbsd8rNU2akjtJoVo5Um8FpDlcP4TezNokueuyp7JT_RhTyLv6PlYHCjugh2daE8z8aAKjXxpT-gEslM1AuSQ/s1600/pic_3.png&quot; height=&quot;293&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Как же хост может получить доступ к данным в VVol? Чтобы реализация в гипервизоре&amp;nbsp;не зависела от реализации VVol в системе хранения, нужен универсальный механизм реализации канала передачи данных. &lt;strong&gt;Protocol Endpoint (PE)&lt;/strong&gt; является своего рода proxy для перенаправления операций ввода-вывода от гипервизора на конкретный VVol. PE это либо специальный LUN (если VVol находится на СХД, подключенной через блочный протокол), либо точка монтирование NFS (если VVol находится на NFS системе хранения). Один PE может служить прокси для множества виртуальных томов. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMUQdWcOiMkYFNJMQZ9aj6ANNqv5BIUv0rBzsG7ixd_FYdsfmh9ZkTQwfM41IuEPvPXHSorrRlKCgKc2MWOrbNqVA8sksENQTH1kQcQRoXzUxAMg4V0GD8BPz93l8L70x-bBElhL_KLgo/s1600/pic_4.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VVol_4&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMUQdWcOiMkYFNJMQZ9aj6ANNqv5BIUv0rBzsG7ixd_FYdsfmh9ZkTQwfM41IuEPvPXHSorrRlKCgKc2MWOrbNqVA8sksENQTH1kQcQRoXzUxAMg4V0GD8BPz93l8L70x-bBElhL_KLgo/s1600/pic_4.png&quot; height=&quot;293&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Обратите внимание, что уже это существенно упрощает администрирование - нам достаточно подключить только один LUN на сервер ESXi, чтобы получить возможность управлять множеством VVols.&amp;nbsp;Protocol Endpoint поддерживает multipath для блочных протоколов, но для NFS поддержки multipath пока нет (как нет и поддержки NFS v4.1). Для NFS отказоустойчивость можно реализовать за счет увеличения числа PE для данного Storage Container. Хотя PE может отвечать только за одну систему хранения, но на одной СХД мы можем создать столько PE, сколько нам необходимо, при этом подразумевается, что каждый PE обеспечивает доступ ко всем Storage Container на данной системе хранения,&amp;nbsp;хотя это и не является обязательным требованием.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так как количество используемых Protocol Endpoint существенно меньше, чем количество подключаемых LUN (до перехода к использованию VVol), технически мы можем подключить к нашей инфраструктуре заметно больше дисковых ресурсов, что может быть актуально в свете повышения максимального количества хостов в кластере vSphere 6.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Все перечисленные компоненты (&lt;strong&gt;VVol&lt;/strong&gt;, &lt;strong&gt;Storage Container&lt;/strong&gt;, &lt;strong&gt;VASA Provider&lt;/strong&gt;, &lt;strong&gt;Protocol Endpoint&lt;/strong&gt;) обеспечивают управление виртуальными томами и доступ к данным на них. С их помощью мы можем упростить задачу распределения пространства на СХД для виртуальной инфраструктуры. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Какие еще плюсы мы можем получить от нового уровня абстракции?&amp;nbsp;Благодаря VASA&amp;nbsp;Provider, мы знаем о поддерживаемых возможностях системы хранения данных для VVols, размещенных на тех или иных Storage Containers, а значит мы можем использовать эту информацию при размещении новых VVols. Создавая Storage Container, администратор системы хранения фактически определяет &lt;strong&gt;Storage Capability&lt;/strong&gt; - те возможности СХД , о которых VASA Provider сообщает серверу&amp;nbsp;vCenter. Они могут включать в себя такие параметры как: уровень RAID, поддержку thin provisioning, тип используемых дисков, поддержку zero detect,&amp;nbsp;аппаратную&amp;nbsp;поддержку снапшотов и т.д. Все эти атрибуты затем могут быть использованы администратором виртуальной инфраструктуры для определения политик - &lt;strong&gt;Storage Policies&lt;/strong&gt;. При создании виртуальных машин, администратор выбирает, какую политику применить для размещения дисковых ресурсов. В ходе жизненного цикла виртуальной машины также учитываются назначенные политики. Все это и составляет систему управления виртуальными машинами на базе политик (&lt;strong&gt;Storage Policy Based Management, SPBM&lt;/strong&gt;).&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkzPh2lNLI_cXdkIQKBTcwJcf8xvy_PE6LYY07L1ZQwU3fIlXdQNGK0F1s2R4qsQKB8dthem66cDNVdG-H8pEbu4YgNhiA3C-cP8yLbvHzxH5dmw8X5DoX1EsU6gFgzRUkfG_Y1uncb_Q/s1600/pic_5.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VVol_5&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkzPh2lNLI_cXdkIQKBTcwJcf8xvy_PE6LYY07L1ZQwU3fIlXdQNGK0F1s2R4qsQKB8dthem66cDNVdG-H8pEbu4YgNhiA3C-cP8yLbvHzxH5dmw8X5DoX1EsU6gFgzRUkfG_Y1uncb_Q/s1600/pic_5.png&quot; height=&quot;305&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Итак, как выглядит процесс &quot;запуска&quot; системы для использования VVols:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;настраиваем VASA Provider (либо интегрирован в СХД, либо отдельная виртуальная машина)&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;администратор СХД выделяет ресурсы (Storage Containers) на системе хранения &lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;ищем существующие Protocol EndPoint (создаются вместе с Storage Container или VASA Provider делает это автоматически для нас) &lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;создаем новые DataStore для созданных Storage Containers&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;настраиваем политики (Storage Policies)&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;создаем новую вирутальную машину&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Конечно, VVol на начальном этапе развития не лишены определенных недостатков. Пока еще:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;нет поддержки NFS v4.1&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;нет поддержки Storage DRS&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;нет поддержки Site Recovery Manager (SRM)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Суммируем плюсы от испльзования VVols:&lt;/div&gt;
&lt;ul&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Единая терминология, независимо от способа подключения СХД&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Возможность делегировать СХД&amp;nbsp; выполнение многих операций над дисками виртуальной машины &lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Возможность предоставлять сервисы СХД на уровне отдельной виртуальной машины&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Управление ресурсами на основе политик &lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;Легкость администрирования&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Все это, безусловно, начинает играть роль, когда у нас появляется достаточно сложная инфраструктура. Начинать &quot;играть&quot; в VVols, имея одну систему хранения с одним типом дисков и 3-4 сервера, на мой взгляд, можно только для самообразования. Практической пользы вы, уверен, на такой конфигурации не увидите. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br clear=&quot;none&quot; /&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Ключевые термины и сокращения:&lt;/div&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li&gt;&lt;strong style=&quot;text-align: justify;&quot;&gt;Virtual Volume&lt;/strong&gt;&lt;span style=&quot;text-align: justify;&quot;&gt; (VVol) - виртуальный раздел/том&lt;/span&gt;&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;VASA Provider&lt;/strong&gt; - реализация слоя управления для VVol&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;vSphere APIs for Storage Awareness&lt;/strong&gt; (VASA) - программный интерфейс для унификации взаимодействия с СХД&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Storage Container&lt;/strong&gt; - контейнер, в котором создаются VVols&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Protocol Endpoint&lt;/strong&gt; (PE) - прокси для доступа к самим данным&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Storage Capability&lt;/strong&gt; - поддерживаемые возможности СХД, которые можно использовать в создаваемых политиках&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Storage Policies&lt;/strong&gt; - политики, назначаемые виртуальным машинам, на основе которых происходит выбор подходящих дисковых ресурсов&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Storage Policy Based Management&lt;/strong&gt; (SPBM) - управление ресурсами хранения на основе политик&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/02/vmware-virual-volumes-vvols.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEbx14elBXvCU9_LE_1Dv0KqcwuYWUWstzTR4iNdvQ7qi8KllrYx4nSGPAVJKOwh5CuyksCgQXMDoMR7AzPiTVbKtbniS63tym7-VQomDEFwBBsjF_y50b7aBtYXs1l86EPJqwkRWQvQc/s72-c/pic_01.png" height="72" width="72"/><thr:total>1</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-7581238148842468506</guid><pubDate>Thu, 19 Feb 2015 16:00:00 +0000</pubDate><atom:updated>2015-02-19T19:00:00.789+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">GPFS</category><category domain="http://www.blogger.com/atom/ns#">IBM</category><category domain="http://www.blogger.com/atom/ns#">LTFS</category><category domain="http://www.blogger.com/atom/ns#">SDS</category><category domain="http://www.blogger.com/atom/ns#">Spectrum</category><category domain="http://www.blogger.com/atom/ns#">storage</category><category domain="http://www.blogger.com/atom/ns#">SVC</category><category domain="http://www.blogger.com/atom/ns#">Tivoli</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><category domain="http://www.blogger.com/atom/ns#">XIV</category><title>IBM потратит ярд на системы хранения</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В IBM &lt;a data-mce-href=&quot;http://www-03.ibm.com/press/uk/en/pressrelease/46109.wss&quot; href=&quot;http://www-03.ibm.com/press/uk/en/pressrelease/46109.wss&quot;&gt;заявили&lt;/a&gt;,
 что готовы в ближайшие 5 лет вложить миллиард $ на разработку Software 
Defined Storage нового поколения. Инвестиции будут направлены на R&amp;amp;D в области облачных и объектных систем хранения, а также интеграцию с открытыми технологиями (OpenStack).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если уже представители IBM заявляют, что &quot;&lt;em&gt;traditional storage is inefficient in today’s world&lt;/em&gt;&quot;,
 наверное действительно пришла пора перемен. Пока, уж не знаю зачем, 
решили переименовать все (почти все) системы хранения. Конечно, теперь все поймут, какая IBM супер-современная компания! :)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Встречайте - &lt;a data-mce-href=&quot;http://www.ibm.com/spectrumstorage&quot; href=&quot;http://www.ibm.com/spectrumstorage&quot;&gt;&lt;strong&gt;IBM Spectrum&lt;/strong&gt;&lt;/a&gt;. На сегодняшний день это единственное изменение, которое случилось с IBM System Storage по случаю смены парадигмы.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Хотя,
 я все-таки немного сгустил краски - в IBM решили наконец 
превратить XIV в программную платформу. Если бы этот шаг был сделан 
через год после выпуска Gen3, вот это был бы настоящий взрыв! А сейчас 
этим уже почти никого не удивишь, тем не менее, вот он - &lt;a data-mce-href=&quot;http://www.ibm.com/systems/storage/spectrum/accelerate/&quot; href=&quot;http://www.ibm.com/systems/storage/spectrum/accelerate/&quot;&gt;Spectrum Accelerate&lt;/a&gt;.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Остальные &quot;новинки&quot;:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Spectrum Virtualize = San Volume Controller (SVC)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Spectrum Scale = General Parallel File System (GPFS)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Spectrum Archive = Linear Tape File System (LTFS)&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Spectrum Control = Storage Insights&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Spectrum Protect = Tivoli Storage Manager &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Нового
 названия не нашлось для старичка DS8000, хотя он самый что ни на есть 
Software Defined Storage еще с незапамятных времен. Также почему-то в 
стороне остались All Flash массивы (Flash System).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br data-mce-bogus=&quot;1&quot; /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
За
 программной реализацией XIV, на мой взгляд, есть реальная сила, но 
будет ли этого достаточно, чтобы вытянуть весь Spectrum на новый уровень
 - большой вопрос.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/02/ibm.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>4</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-2234075537504774</guid><pubDate>Thu, 19 Feb 2015 05:00:00 +0000</pubDate><atom:updated>2015-02-19T08:00:01.030+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">DatAdvantage</category><category domain="http://www.blogger.com/atom/ns#">DatAnswers</category><category domain="http://www.blogger.com/atom/ns#">IDU</category><category domain="http://www.blogger.com/atom/ns#">unstructured data</category><category domain="http://www.blogger.com/atom/ns#">Varonis</category><title>Varonis DatAnswers - корпоративная система поиска по неструктурированным данным</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Не знаю как вы, но я за собой многократно замечал, если мне нужен какой-то документ (и я понимаю, что он мне понадобится еще несколько раз в ближайшие дни), я просто кладу его на рабочий стол или в какую-то папку, которую я год назад создал, специально для “очень нужного документа”, и сам себе пообещал удалить через недельку, не позднее. Только сейчас в этой папке 200 (и хорошо, если 200, а не 1000) разных файлов и понять что есть что уже почти не реально.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Есть конечно еще один хороший способ - отправить нужный документ самому себе по почте, указав в теме письма несколько ключевых слов, но либо таких документов накапливается в ящике столько, что заканчивается место, либо опять эти аттачи приходится складывать во временную папки и см. выше.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Почему так происходит? Чаще всего из-за того, что найти нужный документ, расположенный где-то на одном из файловых серверов (или в корпоративном портале), используя только стандартный механизм поиска и какие-то ключевые слова, довольно сложно - либо получаешь на выходе нерелевантный результат из сотни документов, в которых “на ощупь” пытаешься найти нужный, либо не получаешь вообще ничего. А если совсем не повезет, то можно случайно найти и “чужие” файлы, доступа к которым вообще не должно быть. Все это не способствует повышению продуктивности сотрудников - если человек вынужден потратить 30 минут на поиск документа (а таких сотрудников в компании 100), несложно посчитать какая часть заработного фонда вылетает “в трубу”.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Если для небольших компаний задача управления неструктурированными данными может решаться “наколенным” способом, то для крупных корпораций с сотнями пользователей и несколькими (а иногда и десятками) файловыми серверами требуется искать более продвинутые решения. Уже несколько лет для ряда заказчиков таким продвинутым решением является система &lt;a href=&quot;http://www.varonis.com/products/datadvantage/windows/&quot; target=&quot;_blank&quot;&gt;Varonis DatAdvantage&lt;/a&gt; (в составе комплекса Data Governance Suite). Этот программный комплекс не только позволяет быстро увидеть права доступа в разрезе пользователь-ресурс (и наоборот), но система аналитики позволяет выйти далеко за рамки простой утилиты контроля доступа к файлам. [Неожиданно для себя, заметил, что упомянул DatAdvantage единожды и то только по случаю выхода очередного апдейта - постараюсь исправиться в ближайшее время.] Подсистема сбора статистических данных (IDU Analytics) собирает полную статистику доступа пользователей к файлам - кто и когда открывал файл, кто записывал, кто пытался получить доступ, но не получил и т.д. На основе накопленных данных можно построить своего рода “рекомендательную систему”. Такие системы часто используются в интернет-магазинах или соц-сетях - вам рекомендуются те товары (или публикации), которые заинтересовали других людей, чье поведение было схоже с вашим. Однако, в Varonis DatAdvantage, накопленная статистика активности используется не для того, чтобы что-то предложить пользователю, а чтобы помочь классифицировать пользователей и показать, правильно ли настроены группы доступа. Также система позволяет выявить неправомерные попытки получить доступ к данным.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В конце прошлого года Varonis объявил о доступности (т.е. его уже можно попробовать в пилоте или приобрести) нового компонента своей системы - системы поиска &lt;a href=&quot;http://www.varonis.com/products/datanswers/&quot; target=&quot;_blank&quot;&gt;DatAnswers.&lt;/a&gt; Это корпоративная система поиска файлов на файловых серверах и портале Sharepoint. Поскольку ядро системы (IDU) уже собирает и анализирует как статистику доступа к файлам, так и их содержимое, разработчикам оставалось только добавить индекс и, уже на его основе, построить поисковую систему.&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Благодаря тому, что содержимое файлов не единственный источник данных для поисковой системы, DatAnswers имеет ряд уникальных преимуществ перед другими корпоративными поисковыми системами:&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;
&lt;b&gt;&lt;u&gt;Улучшение релевантности поисковых результатов&lt;/u&gt;&lt;/b&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Используя статистический анализ активности, пользователям разных групп предлагаются различные результаты поиска. Например, если менеджер по продажам ищет данные по названию продукта, то его вероятно интересуют общие информационные материалы, кейсы удачных сделок и другие подобные материалы, в то время как инженера, напротив, интересует техническая документация. Ранжирование, учитывающее ролевую статистику, позволяет быстро находить нужный материал.&lt;/div&gt;
&lt;br /&gt;
&lt;b&gt;&lt;u&gt;Эффективное индексирование&lt;/u&gt;&lt;/b&gt;&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так как система сбора статистики всегда “знает” какие файлы были добавлены, а какие изменялись, полного переиндексирования не требуется никогда. Не нужно даже проверять метки о последнем времени модификации файла - информация о том, какие файлы нужно индексировать, берется непосредственно из данных IDU Analytics. Такой подход позволяет существенно снизить нагрузку от процесса индексирования на всю инфраструктуру заказчика и не зависеть от корректности временных меток на файлах и каталогах.&lt;/div&gt;
&lt;br /&gt;
Уже сейчас DatAnswers предоставляет следующие возможности:&lt;br /&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;находить “похожие” документы - здесь на помощь снова приходит статистика доступа&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;искать файлы на серверах Windows, NAS устройствах и SharePoint портале&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;позволяет пользователю сразу перейти в родительский каталог, где был найден документ&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;использовать для фильтрации результатов рекомендации DatAdvantage&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;с использованием IDU Classsification Framework из результатов поиска можно исключать определенные данные, такие как номера кредитных карт, зарплатных ведомости и другие финансовые данные&lt;/li&gt;
&lt;li style=&quot;text-align: justify;&quot;&gt;исключать из результатов поиска файлы, попадающие под всевозможные регулирующие законы (правда пока это актуально скорее для западных компаний)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кроме того, API DatAnswers позволяет интегрировать систему поиска в свои приложения, что может быть востребовано для крупных компаний, которым организационно нет смысла добавлять еще одну программную оболочку, а гораздо удобнее интегрировать поиск в свою ИС.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
И, на всякий случай, еще раз хочу отметить, что комплекс программных решений Varonis ориентирован, в первую очередь, на крупные компании с большим количеством сотрудников и большим объемом неструктурированных данных (т.е. на те случаи, когда &quot;ручное&quot; администрирование начинает приносить больше вреда, чем пользы и требует слишком больших людских ресурсов). По этой же причине всем проектам по внедрению предшествует пилотная эксплуатация, в ходе которой можно оценить преимущества решения и те плюсы, которые оно предоставляет. За пилотом можно смело обращаться к &lt;a href=&quot;http://www.trinitygroup.ru/about/address/&quot; target=&quot;_blank&quot;&gt;партнеру Varonis&lt;/a&gt; в России.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/02/varonis-datanswers.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-662719329748829891</guid><pubDate>Mon, 16 Feb 2015 05:00:00 +0000</pubDate><atom:updated>2015-02-16T08:00:07.187+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">appliance</category><category domain="http://www.blogger.com/atom/ns#">converged system</category><category domain="http://www.blogger.com/atom/ns#">EVO:RAIL</category><category domain="http://www.blogger.com/atom/ns#">HP</category><category domain="http://www.blogger.com/atom/ns#">hyperconverged</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><category domain="http://www.blogger.com/atom/ns#">VSAN</category><title>HP: еще одна реализация EVO:RAIL отгружается заказчикам</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Раз уж я &lt;a href=&quot;http://exlh.blogspot.ru/2015/02/evorail.html&quot; target=&quot;_blank&quot;&gt;начал писать про EVO:RAIL&lt;/a&gt;, не могу пройти мимо - на прошлой неделе HP объявил о начале отгрузок своей, анонсированной ещё осенью 2014 года, гиперконвергентной системы -&amp;nbsp;&lt;a href=&quot;http://www8.hp.com/us/en/products/cs-solutions/product-detail.html?oid=7729462#%21tab=features%29&quot; target=&quot;_blank&quot;&gt;HP ConvergedSystem 200–HC EVO:RAIL&lt;/a&gt;.&lt;/div&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhmcp9_cL4QLQ0X1bwuP0FWD7tcND_8NLW6D-znj-rvK8qrUuSpNJT-gMxgL_1-H6Qo6JY-ZmUULRlABi1mYk3XEkCTZEYq6dPqUUPMQhEVgrL2YW1vNCP-CEuWJVwdvd93qPHB2uQ_vcc/s1600/HP_EVO_RAIL_front.jpg&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;HP Converged System 200-HC EVO:RAIL front&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhmcp9_cL4QLQ0X1bwuP0FWD7tcND_8NLW6D-znj-rvK8qrUuSpNJT-gMxgL_1-H6Qo6JY-ZmUULRlABi1mYk3XEkCTZEYq6dPqUUPMQhEVgrL2YW1vNCP-CEuWJVwdvd93qPHB2uQ_vcc/s1600/HP_EVO_RAIL_front.jpg&quot; height=&quot;130&quot; title=&quot;&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&quot;Железный&quot; состав довольно стандартный - 4 вычислительных узла, каждый содержит:&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;ul&gt;
&lt;li&gt;2 процессора Intel® E5-2620 v2 six-core&lt;/li&gt;
&lt;li&gt;192 GB памяти&lt;/li&gt;
&lt;li&gt;1 диск SAS 300 GB 10k для загрузки ESXi&lt;/li&gt;
&lt;li&gt;3 дика SAS 1.2 TB 10k (для построения VSAN)&lt;/li&gt;
&lt;li&gt;1 диск 400 GB MLC SSD (кэш для VSAN)&lt;/li&gt;
&lt;li&gt;2 порта 10GbE (под медь или SFP+)&lt;/li&gt;
&lt;li&gt;1 порт IPMI под удалённое управление&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg0ZeI9AyDv1cqjLlEsOwSdyBOp-vAKZjMV0yd4_CLmAPPoLWjsrJT0nNgPNAmLnvZi4ZzKyZeB3xUV25qYYUV4mWIBPxTtglbmuVq_O5IyTUuvUp5lGoDKT4eo1BqM7cZVPSXHV2FU8os/s1600/hp_evo_rail_back.jpg&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;HP Converged System 200-HC EVO:RAIL back&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg0ZeI9AyDv1cqjLlEsOwSdyBOp-vAKZjMV0yd4_CLmAPPoLWjsrJT0nNgPNAmLnvZi4ZzKyZeB3xUV25qYYUV4mWIBPxTtglbmuVq_O5IyTUuvUp5lGoDKT4eo1BqM7cZVPSXHV2FU8os/s1600/hp_evo_rail_back.jpg&quot; title=&quot;&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В некоторой перспективе (второй квартал 2015) заказчикам обещают поддержку HP OneView для централизованного управления инфраструктурой, но пока её нет.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Признаться честно, сверх сухих цифр, сказать мне про данную систему практически нечего: никаких экстраординарных возможностей, никакого дополнительного функционала. Со всех точек зрения - говорим ли мы о железной начинке или о программной части, это только следование &quot;reference&quot; дизайну от VMware. Найти хотя бы какие-то отличия от, например, &lt;a href=&quot;http://www.supermicro.nl/solutions/EVO_RAIL.cfm&quot; target=&quot;_blank&quot;&gt;Supermicro EVO:RAIL&lt;/a&gt;&amp;nbsp;я не смог, как не старался. Да, конечно, локальная поддержка в России от &quot;большого&quot; бренда - это серьезный плюс HP. Уверен, однако, что многие из локальных сборщиков/партнеров Supermicro готовы предложить схожие условия по поддержке за сравнимые, если не за меньшие деньги.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Похоже, что для HP это скорее политическое, чем техническое решение - &quot;Да, мы тоже умеем EVO:RAIL и нашим заказчикам не стоит смотреть на других вендоров.&quot; С другой стороны, у HP есть система 200-HC StoreVirtual, которую им, скорее всего, продавать заказчикам гораздо интереснее, чем EVO.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Кто же будет покупателем данного решения? Наверное те заказчики, у которых HP является корпоративным стандартом и для которых EVO подходит (а это всё-таки довольно нишевое решение).&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Ждём GA от других вендоров (NetApp уже скоро).&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/02/hp-evorail.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhmcp9_cL4QLQ0X1bwuP0FWD7tcND_8NLW6D-znj-rvK8qrUuSpNJT-gMxgL_1-H6Qo6JY-ZmUULRlABi1mYk3XEkCTZEYq6dPqUUPMQhEVgrL2YW1vNCP-CEuWJVwdvd93qPHB2uQ_vcc/s72-c/HP_EVO_RAIL_front.jpg" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-8372591109565272221</guid><pubDate>Thu, 05 Feb 2015 19:54:00 +0000</pubDate><atom:updated>2015-02-05T22:54:03.338+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">appliance</category><category domain="http://www.blogger.com/atom/ns#">backup</category><category domain="http://www.blogger.com/atom/ns#">cloud</category><category domain="http://www.blogger.com/atom/ns#">DataDomain</category><category domain="http://www.blogger.com/atom/ns#">EMC</category><category domain="http://www.blogger.com/atom/ns#">EVO:RAIL</category><category domain="http://www.blogger.com/atom/ns#">virtualization</category><category domain="http://www.blogger.com/atom/ns#">vmware</category><category domain="http://www.blogger.com/atom/ns#">VSPEX BLUE</category><title>Еще один игрок среди реализаций EVO:RAIL</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
На днях EMC &lt;a href=&quot;https://www.emc.com/about/news/press/2015/20150203-01.htm&quot; target=&quot;_blank&quot;&gt;анонсировала&lt;/a&gt; свой EVO:RAIL appliance - VSPEX BLUE, присоединившись, тем самым, к не слишком многочисленной компании, в которой готовых отгружать решение еще меньше.&lt;br /&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZqxgEgZ7pkPGnURgk9AxNiX7NBPl823T3yrZQuMV6TYQdVG3xO4MW-H1agq1Tm_BWd62twvF_n6RxpRbjHaJ3bvs4ZujkFoCObQAn826WeV_M3k6bi9CF90xNTv0ZQ9J2sXlPjoVERIw/s1600/VSPEX+BLUE.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VSPEX BLUE&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZqxgEgZ7pkPGnURgk9AxNiX7NBPl823T3yrZQuMV6TYQdVG3xO4MW-H1agq1Tm_BWd62twvF_n6RxpRbjHaJ3bvs4ZujkFoCObQAn826WeV_M3k6bi9CF90xNTv0ZQ9J2sXlPjoVERIw/s1600/VSPEX+BLUE.png&quot; height=&quot;81&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: center;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Для крупных игроков на рынке довольно сложно продвигать свою реализацию EVO:RAIL. Им нужно заработать, а в случае с EVO, мы имеем жесткие лимиты по дизайну системы, определенный софт и, собственно, практически всё. Поэтому основная задача - показать ценность своего решения, чтобы клиенту не казалось, что цена идет только за брэнд EMC, когда он сравнивает VSPEX BLUE с практически точно такой же (по железным характеристикам) системой от Supermicro (например).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В EMC это прекрасно понимали и на разработку решения потратили довольно много времени и приложили максимум усилий, чтобы потенциальный клиент понимал, что не зря тратит свой бюджет.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiMd_f-Q1o3a88BAHh9uudOUTlBsojGKCcazhfz6N3BNjhjx5uwDd_qlrpY-0sCKzOU0AOzwWFdLo2KJ75lnKey6NrQMYRsO2e-tqvE8o6QGi6-1SuYeSMKzNTgMoHAumiSqMeWGhvfDHs/s1600/VSPEX_blue_front.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VSPEX BLUE front&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiMd_f-Q1o3a88BAHh9uudOUTlBsojGKCcazhfz6N3BNjhjx5uwDd_qlrpY-0sCKzOU0AOzwWFdLo2KJ75lnKey6NrQMYRsO2e-tqvE8o6QGi6-1SuYeSMKzNTgMoHAumiSqMeWGhvfDHs/s1600/VSPEX_blue_front.png&quot; height=&quot;108&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class=&quot;separator&quot; style=&quot;clear: both; text-align: center;&quot;&gt;
&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiQwS1H_7Lj-84eVmLDdxeF9x3Z3BvXIQmj_k3gdQZCN-ZuMkbl3_CX7By0lg0dX__erIBKEwpD9i_ndYZFKq5K_7SM_j_80On22ODs7zv_-E8EMd8rD82cs4512Cpm4Iw_9Na2VhENoZE/s1600/VSPEX_blue_back.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: 1em; margin-right: 1em;&quot;&gt;&lt;img alt=&quot;VSPEX BLUE back&quot; border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiQwS1H_7Lj-84eVmLDdxeF9x3Z3BvXIQmj_k3gdQZCN-ZuMkbl3_CX7By0lg0dX__erIBKEwpD9i_ndYZFKq5K_7SM_j_80On22ODs7zv_-E8EMd8rD82cs4512Cpm4Iw_9Na2VhENoZE/s1600/VSPEX_blue_back.png&quot; height=&quot;131&quot; title=&quot;&quot; width=&quot;320&quot; /&gt;&lt;/a&gt;&lt;/div&gt;
Что касается аппаратной части, то здесь всё довольно стандартно - можно выбрать между двумя моделями - 128ГБ памяти на узел, либо 192ГБ. Других отличий нет - &amp;nbsp;2 процессора Intel Xeon E5-2620&amp;nbsp;V2, 3*1.2TB&amp;nbsp;SAS, 400GB&amp;nbsp;SSD, 2*10G ethernet. Всё, что потребуется клиенту для запуска - стойка, коммутатор (10Гбит), электропитание и ноутбук для настройки. EMC обещает, что за 15 минут можно вполне уложиться с первоначальной инициализацией системы и уже приступать к созданию виртуальных машин. Настройка, по большей части, происходит автоматизировано и от администратора требуется минимум участия.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Так что отличия решения от конкурентов это конечно не железо, а программные “фишки”.&amp;nbsp;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Первая отличительная особенность, которая сразу бросается в глаза - существенно расширенная система управления (Blue Manager). Она позволяет администратору “видеть”, что происходит с железом на более низком уровне, чем стандартный vCenter. В нее встроены ссылки на дополнительный, предназначенный для VSPEX BLUE, софт от EMC (о нем чуть ниже). Присутствует и доступ к ресурсам технической поддержки, все сервисы, как это теперь модно, &quot;в одном окне&quot;.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Раз речь зашла о поддержке, то мы помним, что ранее VSPEX был лишь референсным дизайном для партнёров и именно они должны были обеспечивать первый уровень поддержки. Напротив, VSPEX BLUE это система, которая поддерживается EMC “от и до”. Более того, система ESRS (EMC Secure Remote Services) сама периодически отправляет информацию о состоянии оборудования в службу поддержки (если конечно есть доступ в интернет), поэтому, если не очень внимательно относиться в средствам мониторинга, &amp;nbsp;вы сможете получить сигнал от службы поддержки ещё даже до того, как узнаете о потенциальных проблемах. Проактивный удалённый мониторинг всегда является большим плюсом для заказчика,так как позволяет отчасти переложить ответственность на плечи вендора. Поддержка уровня Premium, помимо времени реагирования 24*7*4 на критичные проблемы, &amp;nbsp;включает в себя еще и установку апдейтов на систему, так что про обслуживание можно практически забыть и заниматься только развертыванием нужных сервисов (и управлением ими).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Защита от сбоя в рамках кластера это прекрасно, но для компаний, использующих более одной площадки для размещения своей ИТ-инфраструктуры, довольно часто бывает востребован такой функционал как репликация данных для обеспечения отказоустойчивости. Поэтому в поставку уже включены лицензии на &lt;a href=&quot;https://www.emc.com/storage/recoverpoint/recoverpoint-for-virtual-machines.htm&quot; target=&quot;_blank&quot;&gt;RecoverPoint for Virtual Machines&lt;/a&gt; - по 15 лицензий на каждый из физических серверов, т.е. каждый appliance поддерживает репликацию до 60 виртуальных машин. Это полностью программное решение по репликации и не требует никакого дополнительного оборудования. Но даже если у вас нет удаленной площадки, никто не мешает использовать локальные реплики для быстрого восстановления в случае сбоя (это совсем не то, что снапшоты внутри VMware). Мы можем сами указать требования по RPO для наших виртуальных машин и обеспечить уровень доступности сервисов, соответствующий бизнес-задачам.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Ещё одной особенностью системы является система резервного копирования VDPA (а не только VDP, входящая в состав лицензии на Enterprise Plus) с коннектором для Data Domain. Ведь нельзя же делать резервную копию данных на сам VSPEX BLUE. :) Вся необходимая программная часть уже включена в поставку &amp;nbsp;VSPEX BLUE (конечно, кроме самого Data Domain). Поддержка дедупликация и высокой скорости disk-to-disk резервного копирования позволяют оптимизировать схему бэкапа и минимизировать его влияние на продуктивную среду. Одна из &lt;a href=&quot;https://www.emc.com/data-protection/data-domain/data-domain-deduplication-storage-systems.htm#!specifications&quot; target=&quot;_blank&quot;&gt;&quot;младших&quot; систем Data Domain&lt;/a&gt; станет отличным дополнением к проекту по внедрению.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Меня всегда настораживал ограниченный объем дискового пространства, который характерен для систем EVO:RAIL - &amp;nbsp;в случае с EMC это по 3 диска 1.2TB SAS плюс 400GB SSD для VSAN Cache на каждый узел. Это даёт примерно 12ТБ на систему, но ведь полезная емкость будет ещё минимум в 2 раза меньше. Конечно, 6ТБ это не так мало, но, по современным меркам, совсем не так уж и много. Поэтому ещё одна “фишка” системы нацелена как раз на тех, кому нужен объем, но нет желания ставить свою собственную дополнительную дисковую систему (либо из-за невысоких требований к производительности, либо из-за того, что обращение к данным не такое уж и частое). Каждый покупатель VSPEX Blue получает возможность подключить до 10ТБ данных из “облака” (Amazon, Google и др.) к &lt;a href=&quot;https://www.emc.com/storage/cloudarray/index.htm#!product_description&quot; target=&quot;_blank&quot;&gt;EMC Cloud Array VE&lt;/a&gt;. Поддерживается до 1ТБ локального кэша, который обеспечивает высокую производительность при работе с “облачными” данными. В облаке можно размещать как данные, так и непосредственно образы виртуальных машин (работающих!).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
И, да, для тех кому мало одной системы - можно поставить до 4х VSPEX BLUE в один кластер (16 физических хостов).&amp;nbsp;&lt;/div&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Получилась довольно интересная система, тем более, что на таком массовом рынке серверов EMC никогда не играла. Посмотрим, насколько быстро получится &quot;отхватить&quot; долю. Весьма успешный и совсем недавний пример Cisco подтверждает, что можно и с места высоко прыгнуть.&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/02/evorail.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZqxgEgZ7pkPGnURgk9AxNiX7NBPl823T3yrZQuMV6TYQdVG3xO4MW-H1agq1Tm_BWd62twvF_n6RxpRbjHaJ3bvs4ZujkFoCObQAn826WeV_M3k6bi9CF90xNTv0ZQ9J2sXlPjoVERIw/s72-c/VSPEX+BLUE.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-5697190502348701974</guid><pubDate>Wed, 21 Jan 2015 06:25:00 +0000</pubDate><atom:updated>2015-01-21T09:25:38.827+03:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">citrix</category><category domain="http://www.blogger.com/atom/ns#">sanbolic</category><category domain="http://www.blogger.com/atom/ns#">SDS</category><title>Sanbolic переходит под крыло Citrix</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;a href=&quot;http://www.citrix.com/news/announcements/jan-2015/citrix-acquires-sanbolic.html&quot; target=&quot;_blank&quot;&gt;Новость&lt;/a&gt;, которую я, признаться, ждал уже лет десять. 12 января Citrix объявил о приобретении компании Sanbolic (сумма сделки не называется).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Поначалу я думал, что покупателем окажется Microsoft, &amp;nbsp;но после выхода 2008R2 (и тем более 2012) стало понятно, что никакого интереса уже не будет. Citrix выглядит вполне логично - подавляющее число внедрений, которые я видел и про которые слышал, это именно Citrix XenDesktop и XenApp. Были попытки занять другие рынки, но без фантастического успеха. Разве что, в свое время, решение было интересно для обработки видео (когда СХД были медленные, а каналы до серверов тесные).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
С интересом жду, как дальше будет развиваться платформа ориентированная исключительно на windows-платформу. На что они будут нацелены, с кем из вендоров будут и дальше работать в плане интегрированной SDS платформы - месяцев через 6 будет понятно.&lt;br /&gt;
&lt;br /&gt;
Ссылки в тему:&lt;br /&gt;
&lt;a href=&quot;http://exlh.blogspot.ru/2010/07/xendesktop.html&quot;&gt;Как обеспечить высокую доступность XenDesktop?&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;http://exlh.blogspot.ru/2010/04/csv.html&quot;&gt;Копирование файлов на CSV диск&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;http://exlh.blogspot.ru/2010/01/sanbolic-melio-fs.html&quot;&gt;Общий доступ к дискам (Sanbolic Melio FS и другие)&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;http://exlh.blogspot.ru/2009/04/beta-sanbolic-meliofs-2009-r1.html&quot;&gt;beta версия Sanbolic MelioFS 2009 R1&lt;/a&gt;&lt;br /&gt;
&lt;a href=&quot;http://exlh.blogspot.ru/2010/07/blog-post_09.html&quot;&gt;Сказка перед выходными&lt;/a&gt;&lt;br /&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2015/01/sanbolic-citrix.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-8007160847611759268</guid><pubDate>Fri, 20 Jun 2014 04:16:00 +0000</pubDate><atom:updated>2014-06-20T08:28:03.255+04:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">netapp</category><title>NetApp FAS8080 EX - новый флагман</title><description>&lt;div dir=&quot;ltr&quot; style=&quot;text-align: left;&quot; trbidi=&quot;on&quot;&gt;
&lt;br /&gt;
&lt;br /&gt;
NetApp &lt;span id=&quot;goog_1517638607&quot;&gt;&lt;/span&gt;&lt;span id=&quot;goog_1517638611&quot;&gt;&lt;/span&gt;&lt;a href=&quot;http://www.netapp.com/us/company/news/press-releases/news-rel-20140617-416006.aspx&quot; target=&quot;_blank&quot;&gt;&lt;span id=&quot;goog_1517638615&quot;&gt;&lt;/span&gt;анонсировал&lt;span id=&quot;goog_1517638616&quot;&gt;&lt;/span&gt;&lt;/a&gt;&lt;span id=&quot;goog_1517638612&quot;&gt;&lt;/span&gt;&lt;span id=&quot;goog_1517638608&quot;&gt;&lt;/span&gt; свой новый флагман в линейке FAS8000 - FAS8080EX.&lt;br /&gt;
&lt;table align=&quot;center&quot; cellpadding=&quot;0&quot; cellspacing=&quot;0&quot; class=&quot;tr-caption-container&quot; style=&quot;margin-left: auto; margin-right: auto; text-align: center;&quot;&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td style=&quot;text-align: center;&quot;&gt;&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiv4bElnVzyp9p3dLuH4mhtUq3IKxcsUtNlwxW9PsMC3DWcMYtkB91GJJ3VlyUZ1vNu6YSB9N-h8E-l02cREGtSK8hnLGBEIN52gvQbm1LWfRaDUVIO8HUlAPmW1QZ_p1avT7w9ZqlPdiA/s1600/FAS8080_front.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: auto; margin-right: auto;&quot;&gt;&lt;img border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiv4bElnVzyp9p3dLuH4mhtUq3IKxcsUtNlwxW9PsMC3DWcMYtkB91GJJ3VlyUZ1vNu6YSB9N-h8E-l02cREGtSK8hnLGBEIN52gvQbm1LWfRaDUVIO8HUlAPmW1QZ_p1avT7w9ZqlPdiA/s1600/FAS8080_front.png&quot; /&gt;&lt;/a&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;tr-caption&quot; style=&quot;text-align: center;&quot;&gt;FAS8080 EX&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;span style=&quot;text-align: justify;&quot;&gt;&lt;br /&gt;&lt;/span&gt;
&lt;br /&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;span style=&quot;text-align: justify;&quot;&gt;До недавнего времени был “старичок” FAS6290, который почти ни в чем не уступал FAS8060 (а по некоторым параметрам и превосходил ее). Сейчас, после анонса, все встало на свои места. Решение разумное - время жизни (и цикл продаж) топовых систем заметно больше, чем для обычных рабочих лошадок. Поэтому “убивать” линейку 6290 не было никакого смыла. За прошедшее с момента анонса серии 8000 NetApp успел дождаться и обкатать новый чипсет (в FAS8080 EX используется 2.8GHz Ivy Bridge вместо Sady Bridge), линейка получила распространение (и не обрушила доверие клиентов) и уже сейчас вполне готова для новых инсталляций “большим дядькам”, которые ждут не только 100500 иопсов.&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
Что же мы получаем в новой системе? Не так уж и мало:&lt;br /&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li&gt;20 ядер на контроллер&lt;/li&gt;
&lt;li&gt;128ГБ памяти на контроллер&amp;nbsp;&lt;/li&gt;
&lt;li&gt;16ГБ NVRAM на контроллер&amp;nbsp;&lt;/li&gt;
&lt;li&gt;уже привычный для 8000 богатый набор портов из коробки&lt;/li&gt;
&lt;li&gt;12 слотов PCI-E Gen3 для расширения (на контроллер)&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
На доступных портах стоит остановиться отдельно - в новых системах серии FAS8000 можно начать нормальную жизнь прямо сразу (понятно, что для старших систем это и не очень актуально, но приятно - меньше плат, больше возможностей для роста). &lt;/div&gt;
&lt;table align=&quot;center&quot; cellpadding=&quot;0&quot; cellspacing=&quot;0&quot; class=&quot;tr-caption-container&quot; style=&quot;margin-left: auto; margin-right: auto; text-align: center;&quot;&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td style=&quot;text-align: center;&quot;&gt;&lt;a href=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhqTP4CP-DGxxk2USHebOhc4uX2mi77kIzQ-Zzc0fOvSsR-i1QJ-F7uHSwLX2dBN8dj7Hj1TA0U644SmhclWeLv2QRov9M3YJuKmBku8gpDP6eQ5JgOOgIZlD9DqxjA60J0E3bjXXWuPN4/s1600/fa8080_back.png&quot; imageanchor=&quot;1&quot; style=&quot;margin-left: auto; margin-right: auto;&quot;&gt;&lt;img border=&quot;0&quot; src=&quot;https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhqTP4CP-DGxxk2USHebOhc4uX2mi77kIzQ-Zzc0fOvSsR-i1QJ-F7uHSwLX2dBN8dj7Hj1TA0U644SmhclWeLv2QRov9M3YJuKmBku8gpDP6eQ5JgOOgIZlD9DqxjA60J0E3bjXXWuPN4/s1600/fa8080_back.png&quot; height=&quot;134&quot; width=&quot;400&quot; /&gt;&lt;/a&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;tr-caption&quot; style=&quot;text-align: center;&quot;&gt;Контроллер FAS8080 EX (без IOXM)&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;span style=&quot;text-align: left;&quot;&gt;Итак, FAS8080 EX с двумя контроллерами “из коробки” дает нам&lt;/span&gt;&lt;/div&gt;
&lt;ul style=&quot;text-align: left;&quot;&gt;
&lt;li&gt;8 портов 10GbE&lt;/li&gt;
&lt;li&gt;8 универсальных портов UTA2 (можно настроить как 10GbE, либо как 16Gb FC - либо как комбинацию из 4*10GbE и 4*FC портов)&lt;/li&gt;
&lt;li&gt;8 портов GbE (кто-то еще использует в таких системах? :)  Шутка - конечно GbE все еще очень актуален&lt;/li&gt;
&lt;li&gt;8 портов SAS для подключения полок расширения&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
И все это богатство можно расширять и расширять (напомню - 24 слота для дальнейшего расширения в двухконтроллерной системе).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Пока всё ещё нет 12G SAS для подключения полок расширения (но и самих полок тоже нет).&lt;/div&gt;
&lt;div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Напомню, что для линейки FAS8000 уже нет привычного разделения систем на “файлер” FAS и “виртуализатор” V-Series - поэтому нельзя заказать V8080EX, зато есть программная опция FlexArray Virtualization Software, которая избавляет нас от лишних продуктовых линеек и сложностей выбора при заказе. Сколько раз мне приходилось обсуждать с заказчиками чем отличается FAS от  V-Series и что именно стоит заказывать! Сейчас вопрос выбора не стоит и обсуждать можно более важные вопросы.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
То немногое, что не изменилось в FAS8080 EX по сравнению с FAS6290 это максимальный объем системы - 1440 дисков (5760ТБ), а также максимально поддерживаемое число SSD дисков — 240 (объемом от 100ГБ до 1.6ТБ каждый). FlashCache на контроллерную пару может достигать 16ТБ, а FlashPool — 36ТБ.&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Традиционная пара портов интерконнекта между контроллерами может стать узким местов для производительности системы, поэтому в FAS8000 появилась возможность использовать 4 порта при использовании коммутируемого соединения. В FAS8080EX пошли еще дальше и разрешили подключать до 6 портов для Cluster Interconnect (конечно в этом случае потребуется дополнительная плата расширения). Рекомендованным режимом, как и для FAS8040/8060, является подключение 4х портов (2 по-прежнему поддерживаются, а 6 может потребоваться в экстремальных конфигурациях).&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
В поддержке кластерных конфигураций ничего не изменилось - максимум 24 ноды для NAS и  8 нод для SAN конфигураций. &lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: justify;&quot;&gt;
Система поставляется с Data ONTAP® 8.2.1 RC2  и уже ждет заказчиков :)&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
</description><link>http://exlh.blogspot.com/2014/06/netapp-fas8080-ex.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiv4bElnVzyp9p3dLuH4mhtUq3IKxcsUtNlwxW9PsMC3DWcMYtkB91GJJ3VlyUZ1vNu6YSB9N-h8E-l02cREGtSK8hnLGBEIN52gvQbm1LWfRaDUVIO8HUlAPmW1QZ_p1avT7w9ZqlPdiA/s72-c/FAS8080_front.png" height="72" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-2438953522048353315.post-5281441273275383169</guid><pubDate>Fri, 11 Apr 2014 04:58:00 +0000</pubDate><atom:updated>2014-04-11T08:58:49.758+04:00</atom:updated><title>Быть экспертом!</title><description>&lt;iframe allowfullscreen=&quot;&quot; frameborder=&quot;0&quot; height=&quot;270&quot; src=&quot;//www.youtube.com/embed/BKorP55Aqvg&quot; width=&quot;480&quot;&gt;&lt;/iframe&gt;</description><link>http://exlh.blogspot.com/2014/04/blog-post.html</link><author>noreply@blogger.com (Andrew Ivanov)</author><thr:total>0</thr:total></item></channel></rss>