IT業界の新人必見!インフラ知識が学べる
  1. TOP
  2. Lv.2_バックアップをもっと学ぶ人が読む記事
更新日:2023-10-02
Level 2 バックアップを少し学んだ人が読む記事

第1章 アプライアンス編

バックアップメーカー各社がアプライアンス型の製品を多くリリースしていますが、「いまいち違いがわからない」「安く導入できるx86サーバーとバックアップソフトの方がいいに決まってる」と思っていませんか?
アプライアンスは、“バックアップ専用”だから実現できる高機能を搭載しているんです。本記事を読めば、その価格に納得するはず。
あなたの環境は従来のソフトウェア構成とアプライアンス、どっちが最適?早速学んでいきましょう!

  1. アプライアンスとは
    1. バックアップに必要なものが全て一つに
    2. 障害の切り分け不要!一括サポート
    3. 初期セットアップが簡単
  2. アプライアンスの自動拡張機能
    1. 拡張時、バックアップパフォーマンスの平準化作業を自動化
    2. 保存先をプライマリストレージにすればよくない?
  3. アプライアンスのハードウェア構成
    1. 世界的にデータ激増中!バックアップ構成は昔よりも難しい
    2. 従来のやり方ではなぜバックアップのパフォーマンス計算が難しい?
  4. アプライアンスの種類 スケールアップ型・スケールアウト型
    1. スケールアウト型は、ディスク増設時にパフォーマンスを考える必要がない
    2. スケールアップ型は、必要なリソースだけ追加してコスト削減できる
    3. スケールアウト型とスケールアップ型、どっちを選ぶべき?
  5. ストレージリソースとしての利用
    1. データ復旧方法は大きく2つ!リストアとインスタントリカバリの違い
    2. インスタントリカバリの機能を十分発揮するにはハードウェア構成が大事
    3. 使わないともったいない?アプライアンスのリソース問題
  6. フルクローンとリンククローン
  7. REST API連携
    1. DevOpsに役立つ!REST API連携による自動化
  8. バックアップシステムの冗長性
    1. スケールアップ型とスケールアウト型の違い
    2. RAIDじゃだめ?大規模環境のディスク障害に備えたイレ―ジャーコーディング
    3. ただしイレージャーコーディングにも弱点はある…
    4. クラスター内部でデータコピーを複数持つRF(レプリケーションファクター)
    5. RAID、イレージャーコーディング、RFのメリット・デメリット
  9. アプライアンス専用特別ライセンス
  10. 管理者の負荷を削減するポリシーベースのバックアップ
    1. ジョブベースバックアップとの違い
  11. まとめ:従来の構成とアプライアンスのメリット・デメリット

アプライアンスとは

mamoru_ureshii.png
城宝 守
博士。お久しぶりです!
ところでどうして最近はアプライアンス型が増えているのでしょうか?
前回も教えてもらいましたが、いまいち良くわかりません。
バックアップ博士
おお。久しぶりじゃな守くん。
わざわざわしの元にきたということは、前回と同じ答えがほしいワケではなさそうじゃのう。何か困ったことがあったのかな?
hakase.png
mamoru_cry.png
城宝 守
はい…
お客様のから沢山のメーカーが出しているアプライアンス製品の特徴と違いを最近よく求められるんですが、うまく説明できないんです。
各社の機能一覧を見ると、できる事はほぼ一緒じゃないですか。
でもなぜか値段が全然異なっていたり、各社の違いが良くわかりません。
various_storage

バックアップに必要なものが全て一つに

バックアップ博士
うん、そうかぁ。
まずはアプライアンス型のいいと思うところを上げてみてくれ。
hakase.png
mamoru_kangaechu.png
城宝 守
事前に構成を考えられていて、セットアップが簡単という事でしょうか?
checkup

障害の切り分け不要!一括サポート

mamoru_niyari.png
城宝 守
あとは…アプライアンス型でハードウェアとソフトウェアが一体なので、保守は一元化され、たらい回しにされない事がメリットと考えています
バックアップ博士
なるほど。
その保守のメリットをもう少し詳しく説明してみてくれ。
hakase.png
mamoru_kangaechu.png
城宝 守
例えば今までは、バックアップが取れていないなどの場合には、保守に問い合わせする際に、まずハードウェアの障害か?ソフトウェアの障害か?を切り分けて、それから保守ベンダーに問い合わせをする必要がありました。
原因がどちらかわからない場合には、最悪保守をたらい回しにされて解決まで時間がかかるなどの問題もありました。
ハードウェアとソフトウェアの
メーカーが異なる場合
to_be_sent_around
アプライアンスの場合
good_support
mamoru_ureshii.png
城宝 守
一方でアプライアンスの場合にはログを提出する事で、ハードウェアか?ソフトウェアか?も合わせて一括でサポートしてくれることが非常に大きいと考えています。

初期セットアップが簡単

バックアップ博士
セットアップのメリットはどうじゃ?
hakase.png
mamoru_ureshii.png
城宝 守
はい。
やはりセットアップが非常に楽なイメージがあります。 電源を入れて事前に用意しておいたIPアドレスなどの情報を入れるだけで初期セットアップが完了するんですよね。

ハードウェアとソフトウェアをそれぞれ用意する場合

SW&HW SW&HW

アプライアンスの場合

appliance appliance
バックアップ博士
初期設定とサポート以外のメリットは?
hakase.png
mamoru_bikkuri.png
城宝 守
えーと…えーと…

アプライアンスの自動拡張機能

バックアップ博士
まだまだあるぞ。
例えばセットアップだけでなく、容量追加の場合などの増設についてもメリットはある。例えば自動で拡張してくれる機能じゃ。
hakase.png
mamoru_nayami.png
城宝 守
なるほど、
自動で拡張ですか。よくイメージできないんですが?
バックアップ博士
自動拡張の前に、まず初めに 近年のデータの増加率を確認しよう。
IDC やGartner などの調査会社や総務省の公開するデータどれを見てもデータは物凄い勢いで増えている。そして今後もますます増えていく事が予想されている。
詳細については Google で「データ増加率」などのキーワードで検索してみてくれ。
どの検索結果を見てみてもデータの増加率が減るなんて記事は見つからないはずじゃ。データが急激に増えている事で、今までのやり方だけではバックアップやデータ保護が間に合わなくなってきているのが事実である。
hakase.png
increasing_data
mamoru_kangaechu.png
城宝 守
今までのやり方と言うと、バックアップサーバーにバックアップソフトをインストールして、データを保存する為のストレージを用意して…という方式ですか?
バックアップ博士
そうじゃ。
hakase.png

代表的な従来のバックアップシステム

traditional_system traditional_system
mamoru_nayami.png
城宝 守
これでは何がダメなのでしょうか?
バックアップ博士
ダメではないが、簡単に言うと年々構成を考えるのが難しくなってきておる。
つまりデータの増加率が加速している今、そのハードウェアを5年間利用することを考えた場合に、5年後までの拡張性を考慮するのが難しいということじゃ。
バックアップソフトウェア自体は各社、切磋琢磨してより多くのデータ容量やヘテロジーニアスな環境をサポートできるように進化したんじゃ。
しかしハードウェア部分は、リニアにパフォーマンスや保存容量を増設するのは、今までの構成ではシステム的に難しいという問題が出てきたんじゃ。
hakase.png
old_HW old_HW

拡張時、バックアップパフォーマンスの平準化作業を自動化

mamoru_kangaechu.png
城宝 守
ではアプライアンス製品だとのその辺の問題は解決できるのでしょうか?
バックアップ博士
うむ、
それがアプライアンスのメリットの1つである「拡張性」じゃ。
例えば今までの代表的な構成の具体例として、データの保存先がバックアップサーバー内蔵のHDDを利用している場合には、そのサーバー内に搭載出来るHDDの数が限度となる。
hakase.png
no_empty_slots
バックアップ博士
また、サーバー側のHDDスロットに空きがあったとしても、今までは容量拡張のためにHDDなどで容量を追加すると、新しいHDDは容量がスカスカで、古いHDDは空き容量が少ない。
ディスクの使用量を平準化するために、一度容量を拡張後にデータを再配置したり、物によってはデータを一度別のボリュームに移動したりしてから、ボリュームを拡張して、データの再配置などの作業を行っていた。これが結構面倒だったんじゃ。
アプライアンスは、ほとんどの製品がこれらの作業を自動で行う機能を持っておる。
hakase.png

代表的な従来のバックアップシステムの場合

manual

アプライアンスの場合

auto
mamoru_ureshii.png
城宝 守
なるほど、
今まで管理者が行っていたバックアップパフォーマンスの
平準化作業をアプライアンスが自動でやってくれるんですね!

保存先をプライマリストレージにすればよくない?

mamoru_kangaechu.png
城宝 守
ではデータ保存先に拡張性があるプライマリーストレージなどを利用した場合にはどうでしょうか?
バックアップ博士
データ保存先を一般的なNetAppやDell Technologiesなどのプライマリストレージにした場合には確かに拡張性はあるが、費用が高くなってしまう。
hakase.png

代表的なプライマリストレージの一例

netapp_fas

NetApp社 FASシリーズ

dell_unity

Dell Technologies社 Unity

high_cost
バックアップ博士
だから最近はプライマリストレージよりはGB単価が安く、バックアップ機としての性能もあり、あまり面倒事を考えなくていいアプライアンス型が流行ってきているんじゃ。
hakase.png
mamoru_bikkuri.png
城宝 守
そうなんですね。
てっきりアプライアンス型はサーバーにバックアップソフトウェアをインストールして出荷されただけのものと考えていました。
バックアップ博士
もっともっとメリットはあるぞ。 では早速勉強して行こう!
hakase.png
mamoru_yaruki.png
城宝 守
よろしくお願いします!

アプライアンスのハードウェア構成

世界的にデータ激増中!バックアップ構成は昔よりも難しい

バックアップ博士
アプライアンスの利用が増えている要因として他にもデータの増え方の変化が大きく起因している。
hakase.png
mamoru_kangaechu.png
城宝 守
データの増え方ですか?
バックアップ博士
そうじゃ。
データの増え方の変化とはつまり「データのワークロードの変化」と言っていいじゃろう。時代の進化とともに、今までとデータの出力される環境が変わってきている。今までの環境では物理サーバーや仮想化サーバーがメインであった。
hakase.png
traditional_workloads
バックアップ博士
ただ最近ではクラウド利用、コンテナー利用、IOTなどが多くなってきた。
センサーから出力される細かくて無数にあるテキストデータや、ビデオカメラから出力される大きなサイズのデータなど、単純なデータの増加だけではなく、沢山の新しい技術が出てきたことにより、データの性質がそれぞれ異なっている。
そんな異なる性質のデータの急激な増加が原因で、従来のバックアップ構成や方式ではシステムのパフォーマンス計算が難しくなったんじゃ。
hakase.png
recent_Workloads

従来のやり方ではなぜバックアップのパフォーマンス計算が難しい?

mamoru_kangaechu.png
城宝 守
データの増え方が変わると今までのバックアップ方式ではどうしてパフォーマンス計算が難しいんですか?
バックアップ博士
例えばセンサーなどから、沢山のデータが出力された事を想定してみよう。
その際に今までのハードウェアではデータを保存する(貯める)ことを優先に考えているので、細かいデータの検索などはあまり得意ではないんじゃ。
結果としてバックアップデータの特定のファイルの検索やリストアなどには時間がかかってしまう。
hakase.png
searching_takes_time
バックアップ博士
一方でアプライアンス型は保存しているバックアップデータをただのバックアップデータではなく、有効的に活用することを考慮して設計されている
一般的にアプライアンス製品の基本構成は、キャッシュとしてSSDなどのフラッシュディスクを搭載している事が多い。
これは利用頻度の高いデータや大量のメタ情報、つまり後の検索などに利用するデータをSSDに置くなど、快適にユーザーが利用出来る工夫がされているんじゃ。
hakase.png
appliances_with_SSD
バックアップ博士
今までのバックアップサーバー内蔵のディスクにキャッシュとしてSSDを入れても、その部分をキャッシュとして利用するのは、何本のSSDを入れるべきかなど構成を考えたり設定が非常に難しい。またバックアップソフトによってはその様なSSDをキャッシュとして利用する設定が出来ないものもある。
hakase.png
cash_not_available
mamoru_kangaechu.png
城宝 守
なるほど。
アプライアンスは、いろんなことが考えられて最適にチューニングされているんですね。お客様に自信を持って説明できる様にもう少し詳しく教えてください。
バックアップ博士
よし、その調子じゃ。
それではアプライアンスの種類を詳しくみて行こう。
hakase.png

アプライアンスの種類 スケールアップ型・スケールアウト型

バックアップ博士
まずアプライアンスは、スケールアップ型とスケールアウト型の大きく2種類がある。
それぞれのメリット・デメリットについてみて行こう。
スケールアップとスケールアウトの違いは分かっておるな?
もし忘れていたらストレージ編基礎勉強のやり直しじゃ。
hakase.png
mamoru_ureshii.png
城宝 守
はい!ばっちりです!
バックアップ博士
ストレージの詳細について勉強したい人は、「最初に学ぶ人が読む」シリーズのストレージ版、わしの弟「ストレージ博士」が紹介する「ストレージを最初に学ぶ人が読むサイト!」を是非見てほしい。
hakase.png
dr._Family
mamoru_bikkuri.png
城宝 守
いきなり誰に話しかけてるんですか!?
でもそのサイトぼくも見ました!ストレージの基本から詳しい機能まで解説してあってわかりやすかったな~。 冊子版もあるから読んだことない人はネットワールドに問い合わせて入手するべきですね!

スケールアウト型は、ディスク増設時にパフォーマンスを考える必要がない

バックアップ博士
では守くん、
スケールアウト型のメリットはなんじゃ?
hakase.png
mamoru_kangaechu.png
城宝 守
スケールアウト型の場合、保存するデータの容量が増えることに応じて、CPUやメモリーなども増強されるので、ディスク容量の増設時にパフォーマンスを考えてシステムを構築する必要がないこと…がメリットでしょうか?

スケールアウト型

scale_out_01 scale_out_01
バックアップ博士
そうじゃな。良く出来た。
ではスケールアップ型はどうじゃ?
hakase.png

スケールアップ型は、必要なリソースだけ追加してコスト削減できる

mamoru_kangaechu.png
城宝 守
スケールアウト型とは異なり、パフォーマンスが劣化しないようシステム構成を考える必要がありますが、これは逆を言えば 必要な部分だけ増やせることがメリットです。
バックアップ博士
必要な部分というのをもう少し詳しく説明したまえ。
hakase.png
mamoru_niyari.png
城宝 守
はい。
状況によって容量だけ足りないけど、CPUやメモリーなどのリソースがまだまだ空いている場合にはストレージ部分だけを増設することで、拡張の際のコストを抑えることができます。(ドヤ)

スケールアップ型

scale_up_01
バックアップ博士
なるほど。よく説明できた。
ではCPUやメモリーの処理が足りなくなったらどうするんじゃ?
hakase.png
mamoru_niyari.png
城宝 守
その場合は上位モデルにコントローラー交換します。
よって、ある程度余裕をもって交換することをお客様にはおすすめしています。
バックアップ博士
じゃあ、5年後のデータを予測するのが難しい場合は、
スケールアウト型のほうがいいのかな ?
hakase.png
mamoru_bikkuri.png
城宝 守
えーと…
実はなんだかその辺がよくわかっていないんです。詳しく教えてください。

スケールアウト型とスケールアップ型、どっちを選ぶべき?

バックアップ博士
実際にはそんな簡単にどちらのタイプがいいか?は決められないんじゃ。
スケールアウト型は、アプライアンスを追加する際に各種制限や最小のノード数などの決まりが多くある。例えば最小3ノードから購入可能などじゃ。
この場合のノードとは、CPUやメモリーが入ったコントローラーと考えてもらっていい。
そうなるとコストがそれなりにかかり、安いタイプでも1,000万円を超える商材がメインとなってくる。このようなコスト面からSMB企業ではスケールアップ型の物が選択されることが多い。
hakase.png

スケールアウト型

scale_out_02
バックアップ博士
スケールアップと言っても最小で数TB~数百TB程度までのバックアップが可能なものが揃っているので、大体5年後の容量が超えない範囲を予測して機器を選択することが可能じゃ。
先程データが飛躍的に増え続ける中で5年後のデータ容量を見極めるのは難しいと話をしたが、少し容量やパフォーマンスが上位の機種を選択しておくことで、拡張性が広がり、自分で機器を組み上げるよりは、圧倒的に拡張が容易なのも事実である。
hakase.png

スケールアップ型

scale_up_02
mamoru_kangaechu.png
城宝 守
なかなか奥が深いですね。
でもアプライアンスは、どこのメーカーも非常に高価なため、100名以下のSMB企業や地方の支店には向かない気がするんですがどうでしょうか?
バックアップ博士
そうじゃな。
確かに過去の事例からすると、特にスケールアウト型のアプライアンスは大企業に入る事が多い。だが各社より拠点向けや小規模事業者向けに、スケールアウトしないエントリーモデルもたくさん出ているぞ。
これは拡張性こそ無いが、HW/SW一括サポートや、システム構築が不要など、アプライアンスならではのメリットが豊富じゃ。
今後データがどのような勢いで急増するか、技術の進歩はどのように変化するかは簡単に予測できない。絶対とは言えないが、企業のデータ容量に応じて、導入されるモデルをざっくり下記のようにも分けるのもありじゃな。(2020年6月時点)
hakase.png
容量:~4TB
サーバー内蔵ディスクを利用
server_built-in_disk
容量:2TB~30TB
エントリーモデル
entry_model
容量:20TB~300TB
スケールアップ型
scale_up_03

容量:50TB~
スケールアウト型

scale_out_03
mamoru_tehe.png
城宝 守
アプライアンス型って他にもメリットあるんですか?
バックアップ博士
例えばこんなメリットがある。
  1. 有事の際にストレージリソースとしての利用
  2. 冗長性の違い
  3. REST APIによる開発チームとの連携>
  4. アプライアンス特別ライセンス
などじゃ。順番に見ていこう!
hakase.png

ストレージリソースとしての利用

バックアップ博士
まずは有事の際にストレージリソースとしての利用じゃ。
hakase.png
mamoru_nayami.png
城宝 守
ストレージリソースとしての利用ですか?
バックアップ博士
例えば障害によってデータが壊れた場合にはどう対処するのが一般的じゃ?
hakase.png

データ復旧方法は大きく2つ!リストアとインスタントリカバリの違い

mamoru_kangaechu.png
城宝 守
いくつか方法はありますが、大きく分けて2つあると考えています。
1つ目はデータをホスト側のサーバー側にリストアして利用します。
2つ目はバックアップソフトにもよりますが、インスタントリカバリなどの機能があれば、そのままバックアップデータをマウントして利用します。
データの復旧方法その➀
バックアップデータをリストア
restore
データの復旧方法その➁
インスタントリカバリ
instant_recovery

リストアとインスタントリカバリの違いを動画の視聴に例えると…

ダウンロード方式
download
ストリーミング方式
streaming
DL完了してから視聴するか、
ストリーミング(DLしながら視聴)するかの違いみたいなものですね。
mamoru_bikkuri.png
バックアップ博士
さすがじゃ。
よく勉強しているな。
hakase.png
mamoru_tehe.png
城宝 守
てへへえ~

インスタントリカバリの機能を十分発揮するにはハードウェア構成が大事

バックアップ博士
ただし後者のインスタントリカバリを利用する場合には、自分で用意したストレージがデータを払い出すだけのディスクI/Oパフォーマンスが十分にあるかを計算するのが非常に難しい。
そもそも今までのバックアップ設計は基本的に“データを保存する場所”ということをメインに考えて、コスト的に安くなる様に設計をしているパターンが多い。
そのために、バックアップソフトウェア側にインスタントリカバリの機能を備えていても、データをマウントして利用する際にデータ転送速度が足りずに、仮想マシンがうまく起動できないなどの問題が起きてしまう事が多い。
hakase.png

安価なバックアップサーバーのインスタントリカバリ

instant_recovery_low-cost_server
バックアップ博士
一方でアプライアンス型はインスタントリカバリでの利用も想定に入れて設計されているモデルがほとんどである。特にスケールアウト型のノード数が多い場合には、十分なパフォーマンスが発揮できる仕様になっている。
またアプライアンスモデルの場合には管理画面上でソフトウェア的なバックアップの状況監視や設定だけでなく、その機器のつまりハードウェアのパフォーマンス状況をリアルタイムで見れるようになっているものもある。
よって緊急時にはそのハードウェアのパフォーマンス状況を見ながら必要最低限の仮想サーバーのみをインスタントリカバリでマウントして利用することが可能である。
hakase.png

アプライアンスのインスタントリカバリ

instant_recovery_appliance
mamoru_ureshii.png
城宝 守
そうか!
アプライアンス型はバックアップソフトがハードと一体になっているのでバックアップサーバーのハードそのものの、パフォーマンス状況も見れるんですね。ここは大きな利点ですね。

使わないともったいない?アプライアンスのリソース問題

mamoru_nayami.png
城宝 守
あれ!?
でも逆を言えば、普段はそのリソースを利用しないで置いておくということですよね。
インスタントリカバリのためだけにリソースを余分に購入するのは少しもったいないですね。
バックアップ博士
いいところに目を付けたな。
最近ではそのようなコンピュートリソースやバックアップデータを保存しておくだけなのは非常にもったいないので、IoTなどのデータ分析、アプリ開発用のDBなどに再利用する動きがあるんじゃ。
hakase.png
IoT_analysis
App_development_DB
バックアップ博士
開発側もサンプルデータでの開発ではなく、「直前まで利用していた実データを使って開発がしたい」というような要望もたくさんある。そのため高機能なアプライアンスのモデルになると、バックアップデータをリンククローンで複製して利用することも可能じゃ。
もちろん、オリジナルのバックアップデータには影響がなく、差分のみ別に保存することが出来るのじゃ。
また、リンククローンで作成したデータにマウントを行う際、REST APIで連携できる機能を備えた製品なども多い。
hakase.png
従来のバックアップサーバー
traditional_backup_server
高機能なアプライアンス
high_performance_appliance
mamoru_bikkuri.png
城宝 守
リンククローンって何ですか?
REST APIで連携って…!?
バックアップ博士
まず「フルクローン」「リンククローン」を説明していこう。
hakase.png

フルクローンとリンククローン

バックアップ博士
フルクローンはその名の通り、データを丸ごとコピーすることで同じものを作成する技術じゃ。一方、リンククローンは仮想的にクローンを作成する。。
オリジナルのデータにリンクを張って、個々の設定やデータなどの差分だけ保持する方法リンククローン方式じゃ。そうすることによってオリジナルのバックアップデータは変更せずに、素早くDBのマシンを作成して、検証、バッチ当て、開発などに利用することが可能である。
hakase.png

フルクローン

full_clone
マスターイメージが古いまま、それぞれ独自に検証、パッチ当て、開発が進んでしまう…マスターイメージを最新アップデートした際にはコピーしたマシンそれぞれにアップデートが必要になり大変だ…
mamoru_bikkuri.png

リンククローン

linked_clone
レプリカのディスクを検証、パッチ当て、開発それぞれの仮想マシンに共有しているから、レプリカに更新をかけるだけで全てのVMを最新イメージにアップデートできる!
mamoru_bikkuri.png
mamoru_nayami.png
城宝 守
ギリです。
ギリ理解できました。要はフルクローンのように丸ごとデータ容量を増やさずに、簡単に素早くテスト環境を作れるということですね。
バックアップ博士
うーん。
まあ良しとしよう。
hakase.png
mamoru_bikkuri.png
城宝 守
ところでREST API連携って何ですか?
最近よくお客様から聞かれますが正直猛ダッシュで逃げて帰ってきます。
まったくわかりません…
バックアップ博士
うん、困ったな。まだまだ勉強が必要じゃ。
今日はアプリケーション開発の話をすると時間が足りないので、かいつまんで説明しよう。
hakase.png

REST API連携

バックアップ博士
まずアプリケーションの開発工程を説明していこう。
通常はざっくり大きく3つの工程からなる。要件定義→プログラミング→アプリケーションリリースだ。プログラミングは通常複数人でコードを書いたり、機能をパーツごとに分けて開発していく。
その工程の中で、開発→テストリリース→検証→バグ修正を何回も繰り返すんじゃ。その際にテストリリースで非常に手間になる工程がいくつかあるんじゃ。
イメージはこんな感じじゃ。
hakase.png
App_development
mamoru_nayami.png
城宝 守
あらためて見るとアプリケーションリリースまでにたくさんの工数がかかり大変ですね…

DevOpsに役立つ!REST API連携による自動化

バックアップ博士
高機能バックアップアプライアンスならこの工程は全てJenkinsなどの自動化ツールとAPI連携して自動化される。
Jenkinsから指令を受けたバックアップアプライアンスが最新のデータベースなどを用意するんじゃ。最近はこのような開発方法をDevOpsという。
hakase.png

DevOps

DevOpsとは、開発チーム(Development)と運用チーム(Operations)が連携し、開発・運用システムによってビジネスの価値を高め、その価値をより確実かつ迅速にエンドユーザーに提供し続ける概念を指す。

DevOps DevOps
mamoru_ureshii.png
城宝 守
と言う事はREST APIの機能を利用すると別の機器やサーバーなどが自動連携できるということですね。
バックアップ博士
開発サイトではこのような常に柔軟なかつ迅速な展開を求められる。
その際にデータをためているアプライアンスなどは非常に重要な役目となり、
APIなどの連携が求められるんじゃ。
hakase.png
mamoru_kangaechu.png
城宝 守
なんだかすごく難しかったです。
でもこのようなデータの再活用を考える企業も最近では多くなってきたから、バックアップ機器もアプライアンス型で、中でもパフォーマンスが出るものとしてスケールアウト型の需要が増えているというわけですね。
バックアップ博士
そうじゃ。
だから最近は多少値段が高くてもトータルコストを考えて高機能アプライアンスモデルが売れているんじゃ。では次に「冗長性」についてみていこう!
hakase.png

バックアップシステムの冗長性

スケールアップ型とスケールアウト型の違い

mamoru_nayami.png
城宝 守
冗長性ですか?
バックアップ博士
そうじゃ。
例えば、今までのバックアップ方式だと、基本的にバックアップサーバーやデータ保存をするストレージなどでは一箇所でも壊れるとバックアップ全体が止まってしまう事がよくあった。
hakase.png
SPOF
mamoru_ureshii.png
城宝 守
えーと、SPOF(Single Point Of Failure)というやつですね。
バックアップ博士
ふむ、よく覚えているな。
SPOFを防ぐには冗長化が必要だが、今までの形式では通常のサーバーを利用しているために、どうしてもバックアップサーバーを冗長化するのはコストや複雑性の問題から難しかった。従来のスケールアップ型ではバックアップサーバーが冗長化されているものが少ないが、スケールアウト型は障害に対していろんな対策がされている。
スケールアウト型の場合にはサーバーが複数あるので、例えば4ノード中1ノード壊れても、残りの3ノードなどでは縮退運転をしてバックアップ運用を止めないなどが可能になる。また止まらないだけでなく、復旧に関してもメリットは大きい。
hakase.png
スケールアップ型

SPOFが発生するとバックアップが止まる

scale_up_04
スケールアウト型

1ノード壊れてもバックアップは止まらない

scale_out_04

RAIDじゃだめ?大規模環境のディスク障害に備えたイレ―ジャーコーディング

バックアップ博士
例えば、今までのバックアップ機器の場合にはディスク障害対策としてRAIDを組む事が多いんじゃ。サイズやクラスにもよるが、上位モデルはイレージャーコーディングを利用していることが多い。
hakase.png
mamoru_nayami.png
城宝 守
RAIDじゃダメなんですか?

RAID

RAIDは、複数のドライブを組み合わせて、仮想的な1つのドライブとして運用し、信頼性や性能を向上させる技術。バックアップ容量に対し多くのハードディスクが物理的に必要になる。

RAID5(パリティレイド)

パリティによって1本までの障害はデータ復元可能。

RAID5
RAID6(ダブルパリティレイド)

パリティによって2本までの障害はデータ復元可能。

RAID6

RAID構成したディスクが故障した時、リビルド(自動で復元)できるように予備のディスクも必要になる。

normal_time
at_breakdown_time
バックアップ博士
ダメではないが、バックアップのように超大容量のデータを扱う場合にはHDDも大きくなり、プライマリーストレージほどパフォーマンスもいらないことから、イレージャーコーディングの方がメリットの大きい場合が多い。
数年前までHDDは大きくても1TB程度だったが、最近はデータ量の増加に伴い、 HDDのサイズも16TBなど大型化している。
hakase.png
mamoru_nayami.png
城宝 守
どうして?
HDDのサイズが大きいとRAIDはよくないのでしょうか?
バックアップ博士
例えばHDDの障害で16TBのディスクを交換するとRAIDの再構築完了に丸3日かかることがある。それに対しイレージャーコーディングは数学的関数を使用する技法で、一連のデータをあらかじめ冗長性を含む形式に変換する。
こうすることで、冗長部分のサブセットから元のデータを再構築することができる
これにより、最近のスケールアウト型のアプライアンスではイレージャーコーディングなどを利用しているためにディスクの復旧が速いことも大きなメリットじゃ。
hakase.png
イレージャーコーディング

イレージャーコーディングは数学的関数を使用し、一連のデータをあらかじめ冗長性を含む形式に変換する技術。データを複数の細かな塊に分割し、それぞれのパリティを別々に保存することで、複数台のディスクやノードが故障しても復元が可能です。

書込み時
write
読出し時
read

ただしイレージャーコーディングにも弱点はある…

mamoru_ureshii.png
城宝 守
という事は、イレージャーコーディングはいいことばかりですね。
バックアップ博士
ん~そうとも限らんぞ。
そもそも少数のディスクでは組めないデメリットがある。
つまり、どうしてもシステムが大規模になってしまう。だからアプライアンスでも小規模事業者向けのエントリーモデルなどはRAIDをあえて利用しているモデルも多数残っている。
hakase.png
mamoru_kangaechu.png
城宝 守
そうなんですね。
バックアップ博士
それ以外にも弱点はあるぞ。
イレージャーコーディングはデータごとに符号化・自動回復をオブジェクトごとに行い、かつデータを細かく分散処理するために、高速処理が苦手じゃ。
よってプライマリストレージなどでは高速処理が必要なために、RAIDを利用している製品が多いのもそのためじゃ。
またRAID 0(ストライピング)のようにHDDを複数台つないでスループット性能を向上することもできないデメリットもある。
hakase.png
RAID 0(ストライピング)

データを複数のドライブに分散させて書き込むことで、高速なI/Oを実現

RAID0
イレージャーコーディング

データをあらかじめ冗長性を含む形式に変換するため、分散書込みができない

eraser_coding
バックアップ博士
小さなオブジェクト(数十KB)を扱うのも苦手じゃ。小さなデータを符号化するために、細かく沢山の符号化をすると、符号化したデータが多くのストレージ容量を消費してしまい非効率となる。イレージャーコーディングでは数MB以上のデータ、すなわち写真や動画でその威力は存分に発揮される
hakase.png
small_data_is_inefficient
large_data_is_efficient
バックアップ博士
ただ、データ転送速度が遅いといっても2~8GB/秒程度のスピードは出るので通常利用では十分なパフォーマンスとなっている。
また前述したように、各社がインスタリカバリなどの機能に備えて高速化するために、よく利用するデータやメタ情報のキャッシュ用にSSDを搭載しているものもあるぞ。
hakase.png
mamoru_kangaechu.png
城宝 守
ん~、なかなか奥が深いですね。

クラスター内部でデータコピーを複数持つRF(レプリケーションファクター)

バックアップ博士
そうそう、「RF」についても説明しておこう。
RF(Replication Factor)とは、コンテナ上で扱うデータの冗長数を表す。クラスター内部でデータのコピーを何個持つかという設定のことじゃ。
hakase.png
mamoru_kangaechu.png
城宝 守
RF?

RF (Replication Factor)

ノードをまたいでデータをコピーするため、特定のノードに障害が発生しても、冗長化されたデータが複数同時にロストすることはない。「Replication Factor 2」は、データの2重書込、「Replication Factor 3」は、データの3重書き込みを行う。

Replication Factor 2

1台のノード障害までOK。1ノードに障害が発生しても稼働し続ける。

RF2
Replication Factor 3

2台のノード障害までOK。2ノードに障害が発生しても稼働し続ける。

RF3

RAID、イレージャーコーディング、RFのメリット・デメリット

mamoru_ureshii.png
城宝 守
つまり総括するとこういうことですね!
冗長性の技術メリットデメリット
RAID
  • データのI/Oが速い。
  • 最低2つのディスクから構成できる。
  • ドライブやストレージノードの耐障
    害性に弱い。
  • RAID5は脆弱性の危険もある。
イレイジャー
コーディング
  • ドライブやストレージノードの耐障害性
    が高い。
  • RAIDに比べリビルドが発生しないた
    め、復旧が速い。
  • ディスクのI/Oが遅い。
  • RAIDに比べ、多くのディスクを必
    要とする。
RF
(レプリケーションファクター)
  • ドライブやストレージノードの耐障害性
    が高い。
  • ディスクのI/Oが高速。
  • ディスク利用効率が悪い。
バックアップ博士
ばっちりじゃ!
次は 「アプライアンス専用特別ライセンス」 についてみていこう!
hakase.png

アプライアンス専用特別ライセンス

バックアップ博士
アプライアンス購入のメリットとして、最近各社からよく提供されているものに、容量ライセンスがある。バックアップ対象サーバー数は関係なく、そのモデルの容量に入れば何台でもバックアップが取得可能というライセンス体系じゃ。
hakase.png
appliance-only_license
mamoru_nayami.png
城宝 守
ううーん。
台数に制限なく利用できるのはうれしいですが、いまいちその利用用途がイメージつきません。
バックアップ博士
ふむふむ。いろんな利用方法があるぞ。
例えば最近は在宅ワークやリモートワークなどが増えて、PCを社外に持ち出すことからPCのデータ障害や紛失なども問題になっている。
そこで全PCを対象にバックアップを行い、その分ライセンスが課金されてしまうと、非常に高い料金となってしまう。
hakase.png
リモートワークに潜む様々なデータ損失リスク
remote_work
全社員のPC台数で数えると費用が高くなる
high_cost
mamoru_kangaechu.png
城宝 守
なるほど。
バックアップ博士
また最近ではポリシーベースのバックアップアプライアンスも登場した。
管理者が意図しない間にバックアップ対象が増える問題もあり、ライセンス規約違反とならないためにも必要なライセンス体系となる。
hakase.png

管理者の負荷を削減するポリシーベースのバックアップ

mamoru_nayami.png
城宝 守
ポリシーベースのバックアップって何ですか?
バックアップ博士
今までバックアップ対象を設定する場合にはどうしていた?
hakase.png
mamoru_kangaechu.png
城宝 守
はい、バックアップする対象を選び、エージェントをインストールしてバックアップのスケジュールなどを設定していました。
バックアップ博士
そうじゃ。
ただ最近は仮想化、コンテナなどの普及により、バックアップする対象が、管理者の意図しないうちに増えていくことも多い。また管理しようとしても現実的に、管理だけで手がいっぱいになってしまい、非常に効率が悪いということもある。
そこで、ある一定のポリシーつまり、ルール決めをするんじゃ。
例えば仮想マシン作成者はバックアップを取ってほしい時には仮想マシンにタグをつけるなどのルールを決めておく。そのルールに一致すれば自動でバックアップを取ってくれる仕組みじゃ。
このように仮想マシンが急に増減するような環境でもポリシーベースは有効じゃ。
hakase.png

ジョブベースバックアップとの違い

ジョブべースのバックアップ

管理者がバックアップジョブ(スケジュール)をバックアップ対象個別に設定する。

job_based
ポリシーべースのバックアップ

管理者がポリシーを作成し、そのポリシーに則って自動バックアップを行う。

policy_based
mamoru_bikkuri.png
城宝 守
やはり最近は環境の変化が激しいので、今までの方式では手間が増えて大変ですね。
確かにポリシーベースのバックアップや容量ベースでのライセンスがあることで、バックアップにかかるコストが劇的に削減できそうですね。

まとめ:従来の構成とアプライアンスのメリット・デメリット

バックアップ博士
そうじゃな。
ではこのアプライアンス編の最終章で 「従来の構成」、「エントリーモデル」、「スケールアップ」、「スケールアウト」 のパターンでメリット/デメリットを下の表にまとめておいたぞ。よーく見てほしい。
hakase.png
従来の構成エントリーモデルスケールアップスケールアウト
ノードの追加単位×××
最低ノード数---3ノード~
異機種の混在--
他社認定サーバー
の利用
××
ワンストップ保守×
リモート保守××
価格帯(年額)-100万円~700万円~400万円~

※上記表はあくまでも各メーカーが公表している情報を元に、おおよその目安としてまとめたものです。

メリットデメリット
従来の構成
  • 学習コストが不要
  • 初期導入コストが安価
  • 構成が複雑になる
  • 拡張性や冗長性がない
エントリーモデル
  • ワンストップ保守
  • 構築が容易
  • 拡張性に乏しい
  • エンタープライズ モデルと比較する
    と機能制限がある
  • コントローラーのリソースを強化
    できない
スケールアップ
  • 拡張性が高い
  • 適材適所にリソース追加が可能
  • 冗長性に乏しい
  • コントローラーのリソースを強化でき
    ない
スケールアウト
  • 拡張性が高い
  • リプレースが容易
  • 冗長性が高い
  • 適材適所にリソース追加ができない
  • 構成が大きくなりがち

守くんとバックアップ博士の会話は参考になりましたか?
管理者の負荷を軽減する便利な機能や、より冗長化を高めるハードウェア構成など、バックアップアプライアンスには多種多様なモデルがリリースされています。
「より冗長性を高めたいが、自社の環境に合った製品選定が難しい」「あまり予算がないが、今よりバックアップ構成をシンプルにしたい」という方は、ぜひネットワールドまでご相談ください。エンドユーザー様に最適な製品をご提案するお手伝いをさせていただきます。

  1. TOP
  2. Lv.2_バックアップをもっと学ぶ人が読む記事