PLAINセンターニュース第118
Page 1

新しいセンター計算機システム
〜 Data Analysis Network System (DANS) について 〜

篠原 育・田村隆幸
PLAINセンター

●はじめに
1. SIRIUS について
2. DANS
  2.1. 磁気ディスクアレイ装置
  2.2. DANS サーバ群
3. まとめ


●はじめに

 PLAIN センターニュースで折りに触れてお伝えしてきましたように、現在、衛星運用・データ処理支援計算機システムのリプレース作業が進行中です。これは、4年間のシステム・レンタル契約の終了に伴うもので、入札は4月初めに行われ、今回のシステムも(株)富士通から導入されることとなりました。2002年3月号の PLAIN ニュースで紹介したように、センター計算機側の汎用 MSP 計算機(従来2号機と呼ばれていた GS8300/10N)の廃止に伴い、今回のリプレースではセンター計算機システムに大きな変更があります。本稿では、新しいセンター計算機システムについて紹介をしたいと思います。

 システム仕様の策定は、PLAIN センターおよび計算機運営委員会の原案を叩き台に仕様書策定委員会で議論・承認されたもので、おおよそ2002年3月号に紹介した方針に沿っています。リプレースの枠組みに含まれるものは大きく分けて、衛星運用支援計算機群、ネットワーク関連機器、センター計算機群、の3つになりますが、それぞれの移行に際しての基本方針は、

●衛星運用支援計算機群
 現状運用中の衛星運用システムの維持+新規衛星対応機器の導入、新 SIRIUS への移行
●ネットワーク関連機器
 対所外ファイアーウォールの増強を含む所内外のネットワーク基盤の維持・強化
●センター計算機群
 MSP システムの廃止・旧 SIRIUS サービスの停止に代わる新規 UNIX 計算機システムの構築

でした。衛星運用支援計算機やネットワーク機器の部分についても、種々の変更点がありますが、本稿では一般ユーザの利用に最も影響のあるセンター計算機に対応するシステムに絞って説明したいと思います。ここで説明しきれなかった部分について質問等がありましたら、PLAIN センターまでお問い合わせ下さい。また、PLAIN センターニュース上でも追々その他の新機能・サービスについて紹介する予定です。


宇宙研ネットワークの中でのDANSサーバ(灰色の四角)の構成図。
黒線はLAN、水色の線はファイバチャンネル接続。


1. SIRIUSについて

 今回、センター側のMSP計算機が廃止され、旧 SIRIUS システムのデータが格納されていたテープ・ライブラリ装置が撤去されるにあたって、原則としてユーザの皆様には新 SIRIUS システムへ移行していただかなければなりません。特に、現在運用中で旧 SIRIUS システムを利用する頻度の多い「のぞみ」より前の衛星(「あけぼの」等)については各衛星プロジェクト側の担当者を通じて、システム変更に際しての注意事項が伝わっていると思いますのでご確認頂きたいと思います。現在も継続して運用中の衛星については、最新数ヶ月分のデータについては衛星運用側の MSP 計算機(新システムでは GS8500/10Q)上で旧 SIRIUS システムを通してデータにアクセスできるようになっていますが、これは衛星の運用継続上の処置であって、どうしても移行が困難なデータ処理以外の利用は考慮されていません。新 SIRIUS へのアクセス方法などについては各プロジェクトの担当者にお問い合わせ下さい。また、新 SIRIUS システムの概要については PLAIN センターニュースの2000年10月号〜12月号にかけて連載記事があります。

 新 SIRIUS へのデータ・アクセスは SDTP プロトコルを用いてネットワーク経由で行うことになります。旧 SIRIUS におけるセンター側の MSP 計算機のように、SIRIUS データへのアクセス・プラットフォームとして新システムに用意された計算機が、以下に紹介する Data Analysis Network System (DANS) です。DANS は一般に利用されているものと同じ UNIX 計算機によって構成されており、処理能力は MSP 計算機より大幅に向上することになります。


2. DANS

2.1. 磁気ディスクアレイ装置

 今回のシステム更新で中核を占める装置は大容量の磁気ディスクアレイ装置です。富士通製の ETERNUS 3000 が 3機導入され、1台当たりの物理容量は35 TB、総物理容量 105 TB の構成です。RAID 機能がハードウェアレベルで実現されており、 RAID5 構成時の論理容量はおよそ 84 TB です。また、ホットスワップ機能など障害時の RAS 機能によって信頼性を確保しています。この装置は1台あたり8本の 2 Gbit/s Fiber Channel インターフェースによって高速なデータ転送性能を持ちますので、同時に多数のユーザからのアクセスがあった場合にも充分なパフォーマンスが確保できるでしょう。

 大容量磁気ディスクアレイ装置を導入したことの最も大きな理由は、今回のレンタル期間中には ASTRO-F、ASTRO-E2、SOLAR-B といった大きなデータ生成レートを持つ科学衛星の打ち上げが予定されていることによります。これらのデータを保持・較正・解析・配布する為には従来の規模よりも遙かに大きく、高速なストレージデバイスが必要となります。従って、SIRIUS データ(衛星テレメトリー)、DARTS データ(公開用最終プロダクト)、プロジェクト固有(較正作業等の中間ファイル、等)の処理データ、がこの装置に蓄積される主なデータセットとなります。高い信頼性のあるストレージ資源を中央で共有することによって、各プロジェクトの大規模なデータ資源の管理負担を軽減できると期待しています。

 一方、容量はそれほど必要なくとも衛星プロジェクト用途外にもデータ保存にある程度の信頼性が求められます。従って、一般のセンター計算機ユーザに対するデータ領域(例えば、センター計算機のホームディレクトリ)もこの装置の一部に含めて管理されることになります。

 約 100 TB のデータ領域といっても、順調に衛星データ取得が進んだ場合には、実はそれ程余裕のある容量ではありません。SIRIUS は宇宙研にとって最優先されるべきものですから、原則として ETERNUS 3000 の1台を SIRIUS 専用に割り当てるとして、残りの2台分の装置をその他の用途で共有することになります。また、テープ・ライブラリによるバックアップ可能容量は全部で 60 TB なので、SIRIUS データのバックアップに必要な 20 TB を除くと残念ながら 40 TB 程度しかテープによるバックアップができません。以上の制約条件を考慮して、ディスク領域管理のガイドラインを以下のように設けました。ディスク領域割り当ての優先度の高いデータ種別から

1. 較正作業等の終了した最終プロダクト・公開データ
(較正用テーブル、解析用のソフトウェア資源を含む)
2. 将来公開が予定される未公開データ、プロジェクト固有の処理データ(地上試験データを含む)
3. 個人レベルのデータ

と考え、ディスク領域の調整を行う方針になっています。

2.2. DANS サーバ群

 上記、磁気ディスクアレイ装置に接続する UNIX サーバ群としては、富士通製の Primergy 250 (Intel Xeon 2.8GHz×2、2 GB メモリ+RedHat Linux) 9台、富士通製の PrimePower 200 (sparc v64 800MHz×2、2 GB メモリ+Solaris 9) 2台、Sun 製の SunFire V280 (ultra sparc III 1.0GHz×2、2 GB メモリ+Solaris 9) 1台、Sun 製の SunFire V880 (ultra sparc III 900MHz×8、16 GB メモリ+Solaris 9) 1台、の合計13台から構成されており、それぞれが fiber channel switch を通して上記、ディスクアレイ装置と接続されることになります。また、各サーバ上には ADIC 社製のファイル共有ソフトウェア StorNext File System が導入されており、全ての fiber channel(Storage Area Network = SAN)上のデバイスを DANS のサーバ間で共有することができます。インターネットを利用するのではなく SAN を利用したデータ共有である為に、ネットワーク・セキュリティー上許可をされていないデータの参照関係が実現できます。

 これらのサーバを用途に応じて以下の4種類に分けることができます。

A.

DARTS サーバ
 DARTS からデータを公開するにあたって DARTS システムが利用するファイル・サーバ。既存システムからの置き換えですが、ディスク領域を衛星プロジェクト側と共有することによってデータ転送作業の省力化ができるメリットがあります。主に2.1.に示した分類の1のデータを管理します。

B.

リフォーマッター
 各衛星プロジェクトが SIRIUS にアクセスをし、データ処理をする為の作業用サーバです。ここでは個人ベースの作業を行うのではなく、基本的には、較正作業を含むプロジェクト固有のデータ処理から公開用データの作成までを行うことを目的とします。ネットワーク的には各衛星プロジェクトの LAN 上ではなく、ファイアーウォールで守られた DANS 独自の LAN (DANS LAN)上に存在することになります。主に 2.1.に示した分類の?と?のデータを管理します。X線、赤外線、電波、太陽、太陽系プラズマのプロジェクトに1台ずつ配分されています。

C.

ファイル・サーバ
 各衛星プロジェクトの個人レベルの作業領域を提供することを目的としたファイル・サーバを構成します。ファイル・サーバは各衛星プロジェクトの LAN 上に置かれ、主に 2.1.に示した分類の?のデータを管理することになります。このサーバは、原則としてユーザに対する CPU 資源の開放をしません。つまり、ファイル・サーバは大容量磁気ディスクアレイのついた Network Attached Storage (NAS) のコントローラと考えてもよいでしょう。各衛星プロジェクトのユーザにとっては、(B)で作成されたデータは SAN を通してこのファイル・サーバから(読みとりのみ)閲覧が可能になります。X線、太陽、固体惑星のプロジェクトに1台ずつ配分されています。

D.

解析サーバ
 従来の MSP センター計算機の置き換えとして、一般ユーザが各衛星プロジェクトの全ての公開済データのデータ解析を行えるようなプラットフォームとして、ある程度の計算能力(SunFire V880 の 8 CPU SMP 機)を持ったサーバを提供します。従来、UNIX のサーバとしては DEC alpha server GS60 が存在していましたが、衛星データへ直接アクセスができないことが大きな問題点として指摘されていましたが、今回はこの点が改善されます。解析サーバ上からは全公開データへのアクセスとデータ解析処理に必要な解析ソフトウェアがインストールされる予定です。これによって、所内外の一般ユーザからデータ解析研究に活用されることを期待しています。

 以上のように現状では、DANS は基本的に衛星プロジェクト向けのシステム設計となっていますが、衛星プロジェクト以外からも共有性の高い利用方法の提案があれば、随時検討していきたいと考えています。例えば、解析サーバの利用に伴ってまとまったデータ領域を必要とする場合、等、ユーザからの要求に柔軟に応えて、DANS の能力を最大限に活用した運営を行っていきたいと思います。DANS についての問い合わせや利用の相談については PLAIN センターが窓口となりますので、何かありましたらご連絡下さい。


3. まとめ

 以上、センター MSP 計算機に代わるデータ処理環境として UNIX サーバ計算機と大容量磁気ディスクアレイ装置から構成される DANS の導入について簡単に紹介しました。今回のシステム更新では、その他にも新しい試みとして、宇宙研内共通の各種インターネット・サービスの強化、所内共有ソフトウェアの導入、等が含まれており、新システム・サービスの設計が PLAIN センターを中心に進められています。随時、PLAIN センターニュース等を通して情報のアナウンスする予定です。新システム・サービスはユーザの皆様にとってできる限り使い勝手のよいものを目指しておりますので、ご要望・ご意見、等ございましたら随時 PLAIN センターまでお寄せ下さい。



この号の目次へ

一般公開報告 へ


(946kb/ 4pages)

Next Issue
Previous Issue
Backnumber
Author Index
Mail to PLAINnewsPLAINnews HOME