PLAINセンターニュース第118号 |
篠原 育・田村隆幸 ●はじめに ●はじめに PLAIN センターニュースで折りに触れてお伝えしてきましたように、現在、衛星運用・データ処理支援計算機システムのリプレース作業が進行中です。これは、4年間のシステム・レンタル契約の終了に伴うもので、入札は4月初めに行われ、今回のシステムも(株)富士通から導入されることとなりました。2002年3月号の PLAIN ニュースで紹介したように、センター計算機側の汎用 MSP 計算機(従来2号機と呼ばれていた GS8300/10N)の廃止に伴い、今回のリプレースではセンター計算機システムに大きな変更があります。本稿では、新しいセンター計算機システムについて紹介をしたいと思います。 システム仕様の策定は、PLAIN センターおよび計算機運営委員会の原案を叩き台に仕様書策定委員会で議論・承認されたもので、おおよそ2002年3月号に紹介した方針に沿っています。リプレースの枠組みに含まれるものは大きく分けて、衛星運用支援計算機群、ネットワーク関連機器、センター計算機群、の3つになりますが、それぞれの移行に際しての基本方針は、
でした。衛星運用支援計算機やネットワーク機器の部分についても、種々の変更点がありますが、本稿では一般ユーザの利用に最も影響のあるセンター計算機に対応するシステムに絞って説明したいと思います。ここで説明しきれなかった部分について質問等がありましたら、PLAIN センターまでお問い合わせ下さい。また、PLAIN センターニュース上でも追々その他の新機能・サービスについて紹介する予定です。 1. SIRIUSについて 今回、センター側のMSP計算機が廃止され、旧 SIRIUS システムのデータが格納されていたテープ・ライブラリ装置が撤去されるにあたって、原則としてユーザの皆様には新 SIRIUS システムへ移行していただかなければなりません。特に、現在運用中で旧 SIRIUS システムを利用する頻度の多い「のぞみ」より前の衛星(「あけぼの」等)については各衛星プロジェクト側の担当者を通じて、システム変更に際しての注意事項が伝わっていると思いますのでご確認頂きたいと思います。現在も継続して運用中の衛星については、最新数ヶ月分のデータについては衛星運用側の MSP 計算機(新システムでは GS8500/10Q)上で旧 SIRIUS システムを通してデータにアクセスできるようになっていますが、これは衛星の運用継続上の処置であって、どうしても移行が困難なデータ処理以外の利用は考慮されていません。新 SIRIUS へのアクセス方法などについては各プロジェクトの担当者にお問い合わせ下さい。また、新 SIRIUS システムの概要については PLAIN センターニュースの2000年10月号〜12月号にかけて連載記事があります。 新 SIRIUS へのデータ・アクセスは SDTP プロトコルを用いてネットワーク経由で行うことになります。旧 SIRIUS におけるセンター側の MSP 計算機のように、SIRIUS データへのアクセス・プラットフォームとして新システムに用意された計算機が、以下に紹介する Data Analysis Network System (DANS) です。DANS は一般に利用されているものと同じ UNIX 計算機によって構成されており、処理能力は MSP 計算機より大幅に向上することになります。 2. DANS 2.1. 磁気ディスクアレイ装置 今回のシステム更新で中核を占める装置は大容量の磁気ディスクアレイ装置です。富士通製の ETERNUS 3000 が 3機導入され、1台当たりの物理容量は35 TB、総物理容量 105 TB の構成です。RAID 機能がハードウェアレベルで実現されており、 RAID5 構成時の論理容量はおよそ 84 TB です。また、ホットスワップ機能など障害時の RAS 機能によって信頼性を確保しています。この装置は1台あたり8本の 2 Gbit/s Fiber Channel インターフェースによって高速なデータ転送性能を持ちますので、同時に多数のユーザからのアクセスがあった場合にも充分なパフォーマンスが確保できるでしょう。 大容量磁気ディスクアレイ装置を導入したことの最も大きな理由は、今回のレンタル期間中には ASTRO-F、ASTRO-E2、SOLAR-B といった大きなデータ生成レートを持つ科学衛星の打ち上げが予定されていることによります。これらのデータを保持・較正・解析・配布する為には従来の規模よりも遙かに大きく、高速なストレージデバイスが必要となります。従って、SIRIUS データ(衛星テレメトリー)、DARTS データ(公開用最終プロダクト)、プロジェクト固有(較正作業等の中間ファイル、等)の処理データ、がこの装置に蓄積される主なデータセットとなります。高い信頼性のあるストレージ資源を中央で共有することによって、各プロジェクトの大規模なデータ資源の管理負担を軽減できると期待しています。 一方、容量はそれほど必要なくとも衛星プロジェクト用途外にもデータ保存にある程度の信頼性が求められます。従って、一般のセンター計算機ユーザに対するデータ領域(例えば、センター計算機のホームディレクトリ)もこの装置の一部に含めて管理されることになります。 約 100 TB のデータ領域といっても、順調に衛星データ取得が進んだ場合には、実はそれ程余裕のある容量ではありません。SIRIUS は宇宙研にとって最優先されるべきものですから、原則として ETERNUS 3000 の1台を SIRIUS 専用に割り当てるとして、残りの2台分の装置をその他の用途で共有することになります。また、テープ・ライブラリによるバックアップ可能容量は全部で 60 TB なので、SIRIUS データのバックアップに必要な 20 TB を除くと残念ながら 40 TB 程度しかテープによるバックアップができません。以上の制約条件を考慮して、ディスク領域管理のガイドラインを以下のように設けました。ディスク領域割り当ての優先度の高いデータ種別から
2.2. DANS サーバ群 上記、磁気ディスクアレイ装置に接続する UNIX サーバ群としては、富士通製の Primergy 250 (Intel Xeon 2.8GHz×2、2 GB メモリ+RedHat Linux) 9台、富士通製の PrimePower 200 (sparc v64 800MHz×2、2 GB メモリ+Solaris 9) 2台、Sun 製の SunFire V280 (ultra sparc III 1.0GHz×2、2 GB メモリ+Solaris 9) 1台、Sun 製の SunFire V880 (ultra sparc III 900MHz×8、16 GB メモリ+Solaris 9) 1台、の合計13台から構成されており、それぞれが fiber channel switch を通して上記、ディスクアレイ装置と接続されることになります。また、各サーバ上には ADIC 社製のファイル共有ソフトウェア StorNext File System が導入されており、全ての fiber channel(Storage Area Network = SAN)上のデバイスを DANS のサーバ間で共有することができます。インターネットを利用するのではなく SAN を利用したデータ共有である為に、ネットワーク・セキュリティー上許可をされていないデータの参照関係が実現できます。 これらのサーバを用途に応じて以下の4種類に分けることができます。
以上のように現状では、DANS は基本的に衛星プロジェクト向けのシステム設計となっていますが、衛星プロジェクト以外からも共有性の高い利用方法の提案があれば、随時検討していきたいと考えています。例えば、解析サーバの利用に伴ってまとまったデータ領域を必要とする場合、等、ユーザからの要求に柔軟に応えて、DANS の能力を最大限に活用した運営を行っていきたいと思います。DANS についての問い合わせや利用の相談については PLAIN センターが窓口となりますので、何かありましたらご連絡下さい。 3. まとめ 以上、センター MSP 計算機に代わるデータ処理環境として UNIX サーバ計算機と大容量磁気ディスクアレイ装置から構成される DANS の導入について簡単に紹介しました。今回のシステム更新では、その他にも新しい試みとして、宇宙研内共通の各種インターネット・サービスの強化、所内共有ソフトウェアの導入、等が含まれており、新システム・サービスの設計が PLAIN センターを中心に進められています。随時、PLAIN センターニュース等を通して情報のアナウンスする予定です。新システム・サービスはユーザの皆様にとってできる限り使い勝手のよいものを目指しておりますので、ご要望・ご意見、等ございましたら随時 PLAIN センターまでお寄せ下さい。
|
|
|||||||||||||||||||||||||||||||