真剣にドキュメントを読んでいる途中で、部屋にかん高い音でいきなりブザーが鳴り響いた。
いきなりだったんでびっくりしました。
なんかいやな予感したんです。ちょうど1月ほど前に朝起きたら仕事部屋でアラームがピーピーなっていたんで・・・。
一応、RAID1で動かしていましたから、データは全く問題ないと思うんですが、嫌なもんです。赤いエラーLEDが燦然と輝き私にDISK交換を訴えています。
そもそもRAID1で動いているので1台くらいDISKが故障したくらいでへこたれないことは分かっていても、「もし、この瞬間にもう1つ壊れたらどうしよう」なんてことを考えてしまいます。
わかってるんですよ。確率的にはすごーくレアだってことは。
でもどっかにいるんですよ「マーフィー」って奴が・・・。
お願い、今回だけは現れないで・・・。そもそも2TB近いデータをバックアップなんてできないんだから・・・。(一瞬、バックアップ用にもう一台買うことをマジで考えた・・・。)
よくよく考えれば、ネットワークも同じ。ネットワークの場合、冗長構成をとって障害時に備えるわけですが、やっぱりたまに壊れてくれます。これは、機会なんで仕方がないわけです。
問題は壊れたときにどういう動きをするかですね。
1)お金潤沢な人、または、クリティカルサービスをしている人
当然、24時間365日オンサイト保守、駆けつけ1~2時間なんていう豪華保守サービスをつけます。安心ですよね。
2)あまりお金がない、または、それほどクリティカルなサービスではない場合
基本、オフィスアワー対応、且つセンドバックな保守で頑張る。
さて、この間は大きな開きがあります。本当は1)がいいわけですが、いろんな事情があって2)にせざるを得ない場合も当然あります。じゃぁ、この二つはサービスクオリティに致命的な影響をあたえるのか?
多分、致命的な影響は「ほとんど」ない、わけです。
結局、壊れた状態にあることは心理的に多くの不安を募らせます。(時として、不安なために余計なことをして、より事態を悪化させることもあります・・。)しかし、実際には数日以内というレベルで直せばほとんどほとんど影響がないはずです。
もちろん、バックアップ系に移っている途中で、正常系が故障する可能性もあるわけで、絶対とはいえないわけです。問題は、この時間をどれだけのお金をかけて短くするかということです。
たとえば、1分数億円の損失ですと言われると、そりゃー二重三重にして、保守体制も万全にしますが、そうでもないところにやたらとお金をかけてバックアップしているケースもあります。
問題は、「バランス」。
RAIDの赤いランプを見つめんがら、そんなことに思いをはせてしまいました。
#当たり前のはなしだ!といわないで・・・。