2009, 2010 ARCHIVE
|
|
論考/提言/元外資系SEとしての視点 |
中島丈夫のITへの見果てぬ夢
ITの技術動向、業界動向などについて鳥瞰します。過去・現在・未来をさまよう見果てぬ夢を追います。
多分に主観的ですが、その分本音で書きたいと思っています。40年間SEというIT道(?)を歩んできた小生の引き出しには多彩な素材が眠っていますが、問題は適切に思い出せるかどうかです。かなりのスピードで呆けが進行していますので。。。テーマや記述が行ったり来たり、くどくなるのをお許しください。
小生が特にお伝えしたいのが、お客様とともにシステム造りをするSEの観点から見たIT技術の論考、そして外資系の技術者として海外研究者/技術者との交流をベースにした多様な視点です。偉そうな態度に見えるかもしれませんが、あるいは取るに足らない論議だと思うかもしれませんが、日本のIT論議に一番欠けていた視点だと昔から危惧していました。 |
WS-Iの終焉とインターオペラビリティの未来. 統合からガバナンスへ.
クラウド時代のJavaの行方-5
2010年12月13日 記述
感慨深いものがあります。
2010年11月09日、WS-I (Web Services Interoperability)の活動が遂に凍結され、終焉してしまいました。
それも、ひっそりと、いつの間にか表舞台から去っていったという風情です。
終に、WS-I のもとWS-* という企業系アーキテクトが夢に描いた、インターネット上に展開する基幹系水平統合システム構築のアーキテクチャは、陽の目を見ることが出来なかったのですね。
WS-*のアーキテクトとも言うべきIBMのDon Ferguson がIBMを去ったのが2006年の末のことですから、この4年の内に、インターネットの風景はすっかり変わってしまったということです。
例えば、IBMが力を入れていたWS-AtomicTransaction なども、お疲れ様という事になるのでしょうか。
また、SOAとWeb Service は違うのだというのは常識ですが、SOAを支えるITベンダーの商品がこのWS-* の技術に大きく依存していたわけですから、SOAにも大きな負のインパクトとなるのでしょう。
WS-I がこけたのは、その根幹にあるWeb Service のSOAPが、あろうことか大手ITベンダーから見れば在野の単純な技術であるRESTに、いとも簡単に打ち負かされてしまったのが発端です。
まるでダビデとゴリアテの戦いの如く、重武装の巨人ゴリアテ WS-*が、羊飼いの少年ダビデが投石器から放った石を額に受けて昏倒し、自らの剣で首を刎ねられたのと同じことが起こってしまった。
話が飛びますが、小生の想うクラウドの本質が中々日本のIT業界の人々に伝わらないのは、この
RESTとSOAPの戦いの結果をどう見ているか、の違いのようにも思います。
小生は、クラウドやWeb 2.0 を、Web系のコラボレーションの話に限定して見ていません。
事の本質の一つは、インターオペラビリティの技術戦争で、既存企業系IT技術が、GoogleやAmazon の新興 コミュニティのIT技術に敗北した、という事実です。
これは、これからの企業系のシステム作りに根本的なインパクトを与える出来事ですし、ソフトウェア産業のヘゲモニーの動向にも大変大きな影響を与える出来事だったと考えています。
2004年ごろから Tim O'ReillyがWeb 2.0 を言い出していたわけですが、彼は既にこのソフトウェア業界の流れを予見していたわけです。
(”ひろゆきがティム・オライリーに直接きいた、「Web2.0ってなんだったの?」”)
2003年末のO'Reilly Sitesに、次のようなメッセージが出たのが変革への狼煙でした。
内容は、2003年のOSCON (O'Reilly Open Source Convention)で、 Amazon の Web Services
Evangelist である Jeff Barr が次のような発言をした、ということでした。
•"85%
of requests to Amazon Web services use REST
•"querying Amazon using REST is 6 times faster than with SOAP"Reference:
(”PHP Web Services Without SOAP”、”REST vs. SOAP at Amazon”)
このメッセージが技術者の腹にボディブローのような影響を与え、それが実際に顕在化したのが2006年に入ってからのことだと思います。2006年が分水嶺になった。
2006年の春から夏にかけて、IBMのソフトウェア・アーキテクチャボードでRESTの議論があったらしい。
このボードの当時の議長はDon Ferguson で、彼は当然、WS-*とRESTの共存を考えていたのだと思います。複雑で信頼性が絶対の企業系システムのインターオペラビリティのアーキテクチャに当てはめると、RESTは如何にも浅はかな考えに映っていたに違いありません。
しかし在野の人気はRESTに大きく傾いていった。
一方で、2006年8月9日には、Google CEO の Eric Schmidt がクラウド・コンピューティングを発しました。
IBMのProject Zero(*.0) が2006年半ばにスタートしたのですが、丁度この時期にあたります。
Project Zero は Jerry Cuomo、IBM Fellow, VP, WebSphere CTO、の肝いりでスタートしたのです。
彼がIBM Fellowになったのも2006年です。彼はDon Fergusonの一番弟子のような存在でした。
企業システムを真剣に考えるIBMはRESTとWS-*の共存を強く望んだわけですが、結果はどうか。
また、Project Zeroが目指したと思われるオープンコミュニティのSOAへの取り込みも、結果はどうか。
当時の企業系IT業界で泣く子も黙るDon Fergusonのご威光も、新興コミュニティには通じなかった。
どういう経過でDon FergusonがIBMを去り、マイクロソフトに移ったのかは存じ上げませんが、このあたりの事情が背景にあったのではと、小生は考えています。
2006年10月のIBM科学アカデミーの総会に、彼は既に出席していませんでした。
ゼネラル・セッションの壇上で、IBM SWG のストラテジー担当に戻ったKristof Kloecknerが、WS-*などのソフトウェア進捗状況について、かなり厳しい意見を吐いていたのが印象に残りました。
さて、WS-Iは(公式的にはその目的を遂げて)終わってしまいました。
この件んではっきり言えることは、IBMなどのITベンダーがビッグ・ピクチャーを描き、その具現化に向かってIT業界が歩みを進めるという、言わばトップダウンなイノベーションへのスタイルが、一時的にしろ崩壊してしまった、という事実でしょう。
壮大なアーキテクチャ指向の時代は、頓挫したようです。
そして、新興ITコミュニティがリードするクラウド時代の流れに反抗する形で、Oracleを先頭にした伝統的なITメーカーは、こぞって垂直統合モデルを目指し、自前のスタックにIT機能の何もかも抱え込んでブラックボックス化する、ITアプライアンス・モデルに夢中になってしまいました。
クラウド時代の混乱の中で、互いのインターオペラビリティなど、眼中に無くなったようにも見えます。
もっと言ってしまえば、オープンなインターオペラビリティなど、ビジネスの敵にさえ映っているようです。
インターオペラビリティという、あるいはSOAという水平統合への技術の展望は無くなったのでしょうか。
小生のユーザー主導アーキテクチャの念仏はこのような文脈を睨んでの提言です。
ZapThinkがこのWS-Iの結果にめげずに、Deep Interoperability というビジョンを掲げています。
Does REST Provide Deep Interoperability?
Where’s our Deep Interoperability?
ZapThinkの一つのヒントとして、”統合”から”ガバナンス”へ、というメッセージがあります。
想えば小生が何十年にわたり夢に描いてきた企業システムは、統合化の仕組みでした。
しかし、オープンソースが行きわたり、ハイブリッドなクラウドなどの複合システムを”統合”する技術は、標準化などではなく、”ガバナンスの技術”なのかもしれません。
グローバル化が進み、より柔軟にビジネスの攻めと守りのバランスを取るためには、固いプロトコルの標準化よりも、ビジネス寄りのガバナンスの技術で整合性を図る方が見返りは大きいでしょう。
小生は、クラウド時代におけるリンク・アーキテクチャの推進を提唱しています。
それは変化と適応のための、ダーウィン的な種と個体の世代管理にフォーカスした考え方です。
アプリケーションの柔軟な変更管理から、未来のサイバー戦争での耐性まで視野に入れていますが、新しいインターオペラビリティの視点で、もう少し頑張ってみようかなとも、考え始めています。
↑
|
クラウド時代のJavaの行方-4.Oracle, IBMの動きはJava 終焉への予兆か
2010年11月13日 記述
小生は昨年から、クラウド時代のJavaの行方について懸念を抱き、ブログを重ねてきました。
昨年の11月20日に、クラウド時代のJavaの行方 -1, 12月06日に同2 、2009年12月18日に Larry Loucks とのテキサス・オースチンでの朝がけの決闘を再掲載してから、この大事なテーマを長く放り出していました。理由は業界の隠れた動きが顕在化しないので、筆が進まなかったのです。
しかし、ここにきて一気に隠れていた問題が表に顕われ、恐れていた通りの展開になってきました。Javaファンの技術者の皆様から見て最悪の道を辿り始めたようにも見えます。
一方で新技術への胎動が顕在化して、本当の新しい時代への出発となるのかもしれません。
4月28日付け発表のVMware とSalesforce.com の提携発表、Java対応”VMforce”の提供、を受けて、2010年5月04日 クラウド時代のJavaの行方 -3.生き残りを賭けたJVM拡張が決め手に、
を書きました。
そこでは、Javaの2巨人、OracleとIBMが主だった動きを示していないのを訝るコメントを書きました。
また、 「皮肉な事に今回は、当時の覇者であり、JavaのオーナーでもあったSUNの姿が霞んでしまっています。SUNの間違いはオープンソースのコミュニティとの絡まりにありましたが、今回も開発系マインドを押さえるオープンソースとそのコミュニティとの舵とりが、この乱世の大勢を決めることになりそうです。」、とコメントしましたが、まさにその通りになってきました。
また、
2010年3月15日 世界ソフトウェア業界は大動乱期へ.日本ITに千載一遇のチャンス到来か?
のブログの中で、
「OracleがSunを買収、Javaを手に入れる事になった今、業界のJavaを見る目が変わるのは当然」
「やはりマイクロソフトの動きが気になります」
「肝心な論点は、イノベーションを起こす実力は、業界かオープンソースか、どちらにあるのかです」
「この状況は下手をすると世界的なIP覇権・戦国時代を引き起こすきっかけになるのかもしれません」
「Larry Ellisonが回帰を主張する1960年代のIBMの技術モデルそのものが問題なのだと考えています」
と、書きました。(IP: Intellectual Property)
で、「世界ソフトウェア業界は大動乱期へ.日本ITに千載一遇のチャンス到来か?」、なのです。
つまり、Bad News 半分、Good News 半分、というところでしょうか。
またまた話が長くなって論点を外しそうなので結論を簡単に述べますと、
-Javaの抗争は長引き、ユビキタスやクラウドなどの技術革新に遅れるだろう。
-オープンソースグループと既存 ITメジャーとの対決も激化するだろう。
-これを傍観せずに、競争ではじかれ、流民となるグローバルなタレントの受け皿となるような、日本ITのアーキテクチャを策定し、ビジネス競争に参加すべき。
IT業界の政治力学の落とし子Java、その政治的状況はさらなる混迷へ
Java程、数奇な運命を辿った技術、商品は、小生にもチョット思い浮かびません。
Javaが生まれ落ちた瞬間から、SUNとMicrosoft が激しく抗争し、裁判所でも永い争いがありました。
その後一枚岩だったJava 陣営が、IBMのオープン化戦略の攻勢にSUNが激しく反発し、本来オープンの旗手であった筈のSUNが守旧派としてオープンコミュニティと対決、SUNのブランドを大きく損ねるとともに破たん、Oracleに買収される羽目に陥りました。SUNはOpenJDKという官制オープンコミュニティを結成して挽回を図りましたが、全ては時機を逸していました。
IBM肝いりの、SUN離れのJavaオープンソース・コミュニティがApache Harmonyです
しかし、Linux の後押しでSUN Solarisを撃破し、EclipseでもSUNのデベロッパー・ブランドを奪ったIBMも、Java のランタイム・オープンコミュニティの確立では、結局成功することができませんでした。
SUNのJava イデオロギーの核心、厳格な互換性維持の錦旗を降ろさせることに失敗し、SUNからその互換認定権を剥がすこと出来なかったのです。
SUNはOpenJDKという形でJavaをオープンにしているわけですが、肝心の互換性テスト、JCK (Java Compatibility Kit)、をTCK (Java Test Compatibility Kit )で使用分野を限定し、遂にApache Harmonyに手渡さなかったのです。
Apache Harmonyの上位団体であるASF (Apache Software Foundation)は、JCP(Java Community Process)規約違反だと厳しく非難してきました。
JCPは、JavaをSUNの支配から独立させるために、Java同盟が当初から発足させたものですが、
2002年4月にIBMの強い後押しで、オープングループの雄ASFがEC (Executive Comittee)の席を占めてからSUNとオープンコミュニティの暗闘が激しくなりました。
( このあたりの風景は、”SUN凋落から何を学ぶべきか”に詳しく書きました)
互換性の認定が無ければ、武士集団が如何に結集しても幕府を開くことは出来ない。
Apache Harmonyは、その成果物を、結局は自由に流通させることができないわけです。
如何にオープンソース・コミュニティが力を持っても、SUN Java朝廷 の呪縛から逃れられなかった。
このTCKの問題は、ASFがこの11月9日、OracleのJavaポリシーに反対する声明文を発表し、大きな火種として新たに燃え上がろうとしています。
ASFは今回はさらに強硬で、JCPからの脱会まで匂わせています。
Apache threatens Oracle with Java exit
ASFはHarmony以外にも多くの重要なJavaプロジェクト、Ant, Derby, Geronimo, Jakarta, Maven,
Tomcat、を
推進していますので、如何なエリソンといえども簡単には無視できないでしょう。
で、IBMとSUNのイデオロギー上の永い対決によって、既存JavaグループのJava技術へのフォーカスが後退し、クラウドやユビキタスの新しいインフラ、プラットフォームで置き去りにされつつあります。
そこに登場したのがGoogle で、瞬く間にAndroid というGoogle開発のプラットフォームが携帯電話市場のトップに躍り出ることになりました。AndroidはDalvikというVM ((Javaではない) Virtual Machine)上でJavaアプリケーションを実行しますが、これをSUNを買収したOracleが訴訟してしまいました。
Oracleに買収される前のSUNも、このDalvik VMを激しく攻撃していましたが訴訟はしませんでした。
このDalvik VMはGoogleが独自に開発したということですが、多くの面でくだんのApache Harmonyのサブセットとなっているようです。
(Oracleとの訴訟合戦で、AndroidはGooglではなくOHA (Open Handset Alliance)の作品だといっています。また、Oracleが訴状に挙げている疑惑のコードを、ASFはHarmonyからのものでは無いといっています))
IBMもまた、Apache Harmony をベースにしてクラウド対応の強化を図ろうとしているようでした。
IBMが2007年にいち早くクラウドに進出しておきながら、未だに大きく一歩を踏み出せないでいる理由の一つに、このApache Harmony
のジレンマが大きく影響しているのだと考えられます。
IBMにとって大きな衝撃は、VMware とSalesforce.com の提携発表、Java対応”VMforce”の提供だったのではないかと考えます。
IBMにとって、将来のデータセンターで大きな対抗勢力に発展する技術力を持つVMwareが、昨年Java フレームワークの雄 Springを買収し、さらにvCloudでSpringSource-Tomcatをクラウド化するようです。
さらにGoogleまでも、”Google App Engine for Business”で、この技術と連携することを発表しています。
もちろんIBMにとっての最大の脅威は、Microsoft Azuleであり、その堅実な実績へのステップです。
このブログではマイクロソフトが登場しませんが、一番強敵のライバルであり、IBMの焦りが見えます。
そして、小生にとっての最大の驚きは、IBMがApache Harmony を捨て、OpenJDK に鞍替えした、という唐突なニュースです。しかし今までの論考を見れば、当然の流れなのかもしれません。
IBMのオープンソースの責任者、Bob Sutor によれば、Oracleから電話があったのだということです。
既存IT業界(?)は、reverse-Forkということで、こぞってこれに賛同しているように見受けられますが、前述したように、肝心のASFが烈火のごとく怒っていますから、これからの動きは解りません。
そして終にというか、この11月12日付でAppleも、Mac OS X上での自身のプロプライエタリーなJavaサポートを中止し、OpenJDK陣営に加わることが発表されました。
これは以前から予想されていたことですが、Javaの混迷は深まるばかりでしょう。
以降、温故知新も兼ねて、過去の経緯をもう少し詳しく見てみましょう。
温故知新. Java、超メジャーへの軌跡
さて、このようにJavaがIT業界の大きな混迷を引き起こす理由は、Javaの、言語とプラットフォームの もつれにあるのだと考えられます。
これは"Write Once, Run Everywhere " を標榜するJavaのプラットフォーム非依存性のクレームを考えると奇異に感じられるかもしてませんが、この教義にJava自身が常に翻弄されてきたように思います。
言語としてのJavaがプラットフォーム非依存性を確立するために、コンテナーという実行環境が必須となります。そしてこれが事実上のプラットフォームとなって、コンピュータ系の多くの部分を仕切ることになった。実行システムを内包した言語系には、単なる言語だけと違って統合環境の強みがあります。
実行システムを内包した言語系は、COBOLやCなどには無かったわけですが、COBOLやFORTRANと同世代のAPL (A Programing
Language)などでもある程度成功し、Javaが初めてではありません。
さて、Javaは元SUNのJames Gosling が組み込み機器用の言語系として創案したOakがベースであるのは有名ですが、そんなニッチな言語系がどうしてIT の多くの部分を仕切るプラットフォームに発展したのでしょうか。その背景は余り語られていません。
事実、Wikipedia のJavaの項を見てもその辺の事情は全く書かれていません。
実は、Java勃興の背景には、コンピューティング・モデル変革期の、政治的な強い後押しがありました。
Javaは、ダウンサイジングの流れに乗ってIT業界の覇王を目指していた当時のビル・ゲイツの野望を阻むための、マイクロソフト以外のIT業界プレーヤーの必死の仕掛けだったのですね。
当時、マイクロソフトは全てをWindowsにバンドルして一気にIT業界を制覇しょうと目論んでいました。
クライアント/サーバー型モデルの勃興とともに、クライアントOSでTalligentやOS2などのIBM-Apple連合を粉砕したマイクロソフトは、本命のサーバーを攻め滅ぼすのも時間の問題のように見えました。
ムーアの法則に乗るマイクロプロセッサーの凄まじい性能向上で、アプリケーション実行環境がクライアント側に移る必然性が、常識として語られていました。
特にGUI (Graphics User Interface)の革命的な見栄えと使いやすさは、不動のもののように見えました。
これらクライアント環境の全ての強みをWindowsに取り込み、さらにサーバー連携もCOMの延長線上にあるDCOMでバンドルしてしまうマイクロソフトの強い意志を阻む上で、Javaのプラットフォーム非依存性は大きな武器に成り得たわけですね。アプリケーションをWindowsから剥がすことが可能です。
このJavaプラットフォーム非依存性を、時代性で強く後押ししたのがインターネットの勃興です。
1995年のインターネット一般商用開放で、一気にWWW (world Wide Web)革命が暴発したのです。
GUIというFat Client のヘゲモニーにWeb Browser 実装の Thin Client が襲い掛かったわけです。
しかし当時のPC技術・性能をベースにしながら、その無駄を省いたと主張する狭義のThin Clientだけ のモデルは、それ自体では全くと言ってよいほどマーケットには受け入れられませんでした。
特に日本語変換機能を必須とする日本のクライアント環境でのThin Client はナンセンスに近かった。
当時のオンライン接続のPCの構成要素から省略できるものは少なく、差別化が難しかったのです。
もちろんインターネット勃興期ではセキュリティ要件も今とはまるで違っていました。
マイクロソフト主導のPCベースのクライアント/サーバー・モデルを切り崩す要素は2つありました。
GUIベースのクライアント・サーバー型モデルのシステム開発では、各ユーザ企業毎にバラバラの仕様となる GUI プラットフォームが、開発工数の大半を占めるまでになっていました。
この面で、Web Browser は単純で全世界共通の UI (User Interface)ですから、GUIを駆逐していく強い必然性がありました。これが一つの要素ですね。
しかし単純で世界的なUIの一貫性はあるものの、アプリケーション作りこみの機能性や柔軟さの面でWeb Browse単体では企業ユーザーの要件を満たせなかった。
そこにヒットしたのが、"Write Once, Run Everywhere "のJavaの言語性です。
当時ピコ・コードと呼ばれた最少機能に部分化されたJavaコードのアプリケーションがWeb Browserとコンビネーションを組んで、クライアント・アプリケーションを具現化する構造です。Javaアプレットですね。
さらには当時人気の高かったマルチメディアのニーズもJavaが解決してくれる期待があった。
SUNのHotJavaのデビューはこのような環境で強く支持され、Ritch Client というジャンルができました。
このあたりの風景は丁度、携帯やスマートフォーンでのAndoroid の浸透の風景と重なり合ってきます。
面白いのは、このThin Client を強く主張したのがOracleのエリソンでした。
当時のエリソンは、Thin Client を契機にマイクロソフトの牙城を突き崩そうとしたのでしょう。
これは、エリソンが今何を考えているのかを押し図る手立てになると思われます。
エリソンの垂直統合というのは、どうも携帯や組み込みなども含めたクライアントからアプリケーション・パッケージという、壮大な end to end の統合・制覇を考えているように見えます。
これは、実はグーグルも同じではないかと思います。
ということで、両者の激突ですね。そして、マイクロソフトの存在です。
さて、アプレットが実行毎にネットワークから飛来してアプリケーションを実行するというモデルは、実際には当時のネットワーク環境では性能要件を全く満たすことが出来ませんでした。
これを強固に補強したのがNetscapeがリードしたHTTPサーバーにおけるJavaサーブレットです。
結局、アプリケーションはWeb Browseから離れてサーバーで実行されることになるわけです。
さらにHTTPサーバーのJavaサーブレットだけでは企業アプリケーションは組めず、CGI経由のアプリケーション・サーバーがDBインターフェースなども組み込んだ形で形成されていきます。
しかしこのCGI経由のトランザクション処理は大変なオーバーヘッドで、大きな課題になりました。
ここでリーダーシップを発揮したのがIBMです。IIOPやEJBコンテナーの構造を導入することによって、
新しい基幹系企業システムの構造を固めました。J2EEの誕生です。
IBMは、J2EEの仕様の85%はIBMが作ったのだとクレームしています。
この業績でIBM FellowになったDon Furgesonの作品ですね。彼のチームでお客様の実プロジェクトの開発を担当していたChris Codellaが、EJBのアプリケーションの互換性、ポータビリティの可能性を強く主張していたのが印象的でした。、
実はIBMはダウンサイジングの大波を乗り越えるために、企業システムの在り方を必死になって模索していました。これがJ2EEに強く反映されたのです。
この辺の事情は、当事者の小生のホメオトシスとして、
”クラウド時代のJavaの行方 -1”、”Larry Loucks とのテキサス・オースチンでの朝がけの決闘”で、
詳しく論じています。
温故知新. オープンソース・コミュニティの勃興とJavaの分裂
クライアント/サーバー・モデルによるダウンサイジングで大打撃を受けたIBMは、インターネットの勃興を上手に取り込んで、ネットワーク・コンピューティングというアプリケーション実行環境をサーバーに奪還するモデルで、企業システムのヘゲモニーの復権に成功しました。
そして、その余勢をかって、インターネットの覇者になっていたSUNに攻勢をかけ始めました。
当時未だ将来を見通すことさえ出来なかったオープンソース・コミュニティのLinux に肝いりし、SUNの力の源泉であったSolarisを駆逐する戦略に賭けました。
SCOによるLinuxの訴訟や、マイクロソフトの陰に陽に渡る干渉を跳ね除けて、Linux は成功しました。
特にSCOによるLinuxの訴訟では、お客様をも訴えるという一歩踏み外せば大変な事態が想定されていましたが、IBMは毅然とした態度で、これに応じました。後述するDonofrioのリーダーシップです。
IBMにとっては副次的な成果として、メーンフレームzにおけるLinux実装でメーンフレムのイメージを一新することも出来ました。当時のガースナー会長はこのモデルの推進者であったJeff
Nickを高く評価し、WebSphere / J2EE のDon Fergusonとともに2000年度のIBM Fellowに推挙しました。
このLinux の大きな成功を受けて、LAMPと総称されたオープンコミュニティの実力が顕在化しました。
LinuxでSUN Solarisに大打撃を与えたIBMは、引き続きオープン・コミュニティを味方にしてSUNを追い詰めていきました。Eclipse
の成功でJava デベロッパーの外堀を埋め、そしてJavaを標的にしました。
マクネリーの独走で、インターネット系ベンチャーに信用保証で膨大なサーバーを売り掛けたSUNは、2000年のインターネット・バブルの破たんで膨大な資金的損害を被り、ウォール街と険悪になっていたのですが、そのSUNを買収せずに、IBMはJavaのオープン化という戦略でSUNを追い詰めました。
SUNはこのIBMの戦略に頑なに抵抗し、結果的にオープンコミュニティを敵に回す羽目に落ちいってしまいました。
IBMのオープン化戦略の攻勢にSUNが激しく反発し、本来オープンの旗手であった筈のSUNが守旧派としてオープンコミュニティと対決、SUNのブランドを大きく損ねるとともに破たん、Oracleに買収される羽目に陥りました。
このあたりの風景は、”SUN凋落から何を学ぶべきか”に詳しく書きました。
結果としてJava陣営は、オープンコミュニティを軸にして離散集合を繰り返して行くことになります。
この辺の事情は既に、”IT業界の政治力学の落とし子Java、その政治的状況はさらなる混迷へ”で記述していますので、ここでは省略します。
要は、
「イノベーションを起こす実力は、業界かオープンソースか、どちらにあるのか」ですが、
そのイノベーションを起こすためのオープンコミュニティの構造であるForkのイデオロギーと、
Javaの互換性維持のためのJCKのイデオロギーとの解かれざる相克が最大の課題なのです。
自身の戦略として強く肝いりしていた オープンコミュニティ、Apache Harmony を捨て、SUNの官制オープンコミュニティであるOpenJDKに変節したIBMは、自身の行動をreverse-Forkとして正当化しています。
しかしこのIBMの選択は、OracleのGoogle訴訟と無関係だと考える向きは少ないと考えられます。
クラウド時代へ向けた Javaの技術的な課題は克服されるのか?
ところで、Javaの技術的な課題は克服されるのでしょうか。
前にも書きましたが、IBMとSUNのイデオロギー上の永い対決によって、既存JavaグループのJava技術へのフォーカスが後退し、クラウドやユビキタスの新しいインフラ、プラットフォームで置き去りにされつつあります。
ユビキタスの分野では新興Googleが突っ走り、Oracleの提訴という形で顕在化していますが、
クラウドではもっと深刻なようです。
この問題は、4月28日付け発表のVMware とSalesforce.com の提携発表、Java対応”VMforce”の提供、を受けて、2010年5月04日 クラウド時代のJavaの行方 -3. 生き残りを賭けたJVM拡張が決め手に、
で書きました。
とにかくJavaの現状は、クラウド・サイズにも、組み込み型のユビキタスなサイズにもフィットしません。
リソースを喰い過ぎるわけですね。
メモリーの消費量は酷いものです。VM間でのデータ・シェアも貧困だし、Hadoopのようなビッグ・データ処理にも弱い。とにかく並列処理ができない。マルチコアがダメ。マルチテナントも資源消費量や隔離性でダメ。Scriptも弱い。
ある程度は解決されるのでしょうが、根本的な課題は未解決のまま、中途半端な形で残るのでしょう。
Oracleの訴訟とIBMの変節、GoogleとASFの怒り、で、IT ビジネスモデルは多様化へ
で、結論を書かなければならないのですが、...
少々疲れ果ててしまいました。途中ですがギブアップです。また続きは書きます。
垂直統合のエリソンの運命も書かなければなりません。IBMもどうするのか。。。
OracleはExalogicでJavaの方向性を言っていますし、エリソンはチップ・メーカーを探しているらしい。
VCE Alliance、HP-MS Alliance も書かなければなりませんし、IBMのJava系PaaSも出てくるのでしょう。
実はこのようなJava技術と業界の混乱を予感して、ラマンチャ通信ではいろいろと書いてきました。
既存のJEEを化粧直ししただけのPaaSを避けろとか、リンク・アーキテクチャでユーザー主導アーキテクチャを創って、来たるべき混乱に備えるべきだとか、その新しい仕組みに世界の流民となるであろうIT自由人を呼び込んでイノベーションを誘発し、逆に世界に打って出るべきだとか。。。
いずれにしても、
「世界ソフトウェア業界は大動乱期へ.日本ITに千載一遇のチャンス到来か?」、なのです。
↑ |
2010年8月22日 記述
2010年8月18日、日本IBMがPOWER7シリーズの最上位機、IBM Power 795を発表しました。
これでIBMはコミット通りPOWER7サーバーのほぼ全てを市場に出したことになるのでしょうか。
気が早いようですが、ITウオッチャーにとって、いよいよPOWER8の技術が気になりだすところですね。
ラマンチャ通信では製品の説明をする気などありませんが、技術動向は押さえておきたいと思います。
IBM Power 795の発表. 巨大な箱は、雲まで届くのか
今回のIBMの発表では、焦眉の的、TPC-Cベンチマーク値では、肩すかしを食った感じです。
一応、HP Integrity Superdome の2.5倍、Oracleの「Sun SPARC Enterprise T5440」より35%高いパフォーマンス、ということですが、これはIBM Power 780 の3クラスター構成での結果です。
テスト・サイズの限界で、もうこれでTPC-Cのベンチマーク競争も、ピリオドを打つのかもしれません。
一方で、本命のPower 795 SMP/台のTPC-C値は、今年9月に予定されているOracle OpenWorldにぶつけるのではないかという憶測も飛んでいます。
それにしても、これくらい大きなサーバー構成でのパーフォーマンス・テストは大変なことですよね。
小生も、IBM TSEL(Tokyo System Evaluation Lab.)で大規模なベンチマーク・テストを仕切っていましたが、当時の大量ディスクの管理に、マシン・ルームを毎朝巡回するのが、ま、仕事でした。
クラウド時代に、こんな大きなSMPサーバーを誰が使うのか?
あるいはクラウド環境には中途半端ではないか、という疑問も発せられそうです。
IBMのクラウドは、アンサンブルというヘテロ環境をクラス分けしたサーバー・グループで構成され、多様なワークロードに対応するアーキテクチャですから、幾ら巨大でもクラウドのコンポーネントとして不思議はありません。
また、Power 795は、クラウド構成の有無に関係なく、仮想化をベースにしたサーバー・コンソリデーションで、HPや、SUN サーバー移行受け皿のモンスター吸引器としても、位置づけられているのでしょう。
そして先ずは手始めということでしょうか、今回発表されたAIX7.1がWPAR(workload partitions)と連携して、POWER7ではサポートされない自社の古いOS、AIX 5.2の受け皿にもなるようです。
激しい技術革新を繰り返すPOWERにとって、SW互換が課題の一つでもあったのですが、このような仮想化の形で解決されていくのでしょうか。であれば、POWER8では革新中の革新も可能となります。
また、無停止のままでのOSアップグレードなどの運用可能性も視界に入ってきます。
eCloud研究会スタートの一つの動機が、OSやミドルウェアのバージョン遅れに起因するイノベーション停滞の打破にあったわけですが、この面での技術として注目してよいと思います。
巨大な箱も雲も、企業システムのヘテロなワークロード処理の柔軟性が鍵
大きな箱であろうと、雲であろうと、それが受け入れ処理する企業システムのワークロードは、ヘテロなのが常識です。これがGoogle等のx86単一(ホモジニアス)の巨大なサーバー構成と違うところです。
このような、企業システムのヘテロなワークロードをスケーラブルに解く方法には、多様なアプローチが考えられます。例えば、IBMは以下のような5つのオプションを持っていると思います。
技術の動向を鳥瞰するために、少し詳しく眺めてみましょう。
クラウドやストリーム・コンピューティングが展開される次世代システムでは、ヘテロな処理はより重要性を増します。以下の5つのオプションが適正にミックスされた形で導入されていくものと考えます。
① ヘテロなワークロードの実行環境を、仮想化とエミュレーションの併用で実現する技術です。
技術の可能性だけで考えると、SW互換のための命令セットのトランスレーションやエミュレーションを積極的に伴う仮想化は、単純なサーバー・コンソリデーションにおいても、来たるべきクラウド環境においても、運用面の単純さの点で、実現出来れば価値は大きいと考えられます。
これは、そもそも40年前に、IBMがCP/67で仮想化の概念をIT世界に初めて持ち込んだ時の精神でもあったわけです。それが40年を経て、仮想化は同類アーキテクチャのホスティングに落ち着いた。
当時の様子を振り返って、小生が歴史の語り部として纏めた資料があります。
(特集「仮想化の正体」(4)Part4源流/TSSが発端、仮想マシンの40年、日経バイト、ITpro、(2005))
エミュレーションやトランスレータで、ヘテロなワークロードの互換性を実現する技術の成功例はあまり多くありません。命令セットのエミュレーションのオーバーヘッドや、strong
memory model の有無など、対応するプロセッサー固有のアーキテクチャが制約になったりして、効率があがらないからです。
例えばIntelは、Itaniumにエミュレータを実装してx86系の統合を志しましたが、完全に失敗しました。
数少ない成功例として、AppleのMacOS/PowerPCを MacOS/x86に移行させた製品、Rosetta があります。これはUKのベンチャー企業であったTransitiveの技術ですが、IBM Powerに於いても、ネイティブなLinux/x86のワークロードをLinux/Power上で直接実行するPowerVM Lx86という製品で使っています。
さらにIBMはこのTransitiveを買収しています。
先のAIX7.1とWPARが連携してAIX 5.2をサポートする機構は、構造的にはここに分類されるでしょう。
② これとは逆のアプローチをIBMはzEnterpriseでとっています。ハイブリッド・システムです。
ヘテロなワークロードを単一のプロセッサー・アーキテクチャでホスティングするのではなく、逆にヘテロなワークロードに対応した異種のサーバー群をハイブリッド構成で包含してしまう方法です。
其々のワークロードに適したヘテロなHWを、ハイブリッドで論理的に1サーバーに統合する方法です。
具体的には、既存のトランザクション処理やDB処理の基幹系ワークロード処理はzアーキテクチャで処理しながら、周辺のWebインフラやBI 処理を、祖結合したもう一つの筐体に実装したx86やPOWERのブレードで処理します。そして、これらヘテロなサーバー群の連携処理や、SW,
HWの運用管理全体を、論理的な一つのサーバーとして一体形成して見せるものです。
適者適性の価格性能比を利活用しながら、一方で複合システムの複雑さを、実績あるメーンフレーム・システム管理系で削減します。IBMはこれをワークロード・オプティマイズド・システムと呼んでいます。
③ IBMが次世代データセンター(NEDC)で準備し、IBM クラウドのクラウド・プラットフォームの基盤となる方法がアンサンブルです。製品はIBM Director、VMcontrol、そしてTivori製品から構成されます。
予め、ヘテロなサーバー系全体を、アンサンブルと呼ぶ同類アーキテクチャのサーバー群にクラス分けし、それを階層的に管理し、複合システムの複雑さを削減しようというアーキテクチャです。
仮想化の技術をベースにして、アンサンブルは、階層構造を持った、分散協調の管理系を構成します。
アンサンブルは z、p、x、のサーバー別、ストーレッジ、ネットワークなどにも分類・構成するようです。
IBMは2000年当初より、オートノミック / グリッドの技術開発により、ヘテロなサーバー群を個々のサーバーの自律的な協調処理によって連携させ、企業システムの複雑さ削減にチャレンジして来ました。
企業環境はヘテロなマルチベンダー環境が常識であったため、標準化とベンダー固有技術の整合性に大きな投資をしましたが、結果は失敗に終わってしまいました。企業では実現出来なかったのです。
フラットでヘテロジニアスな構造の複雑さを克服することが、如何に困難かを実証した形になりました。
ところが一方で、Googleが100万台規模のデータセンターを運用できることを示しました。
Googleが成功した理由を簡単に言ってしまえば単純で、この100万台のサーバー群が、Google自身が開発した一種類のホモジニアスなサーバーだけで構成されているという点にあります。
そこでIBMは、ヘテロなサーバー群を、ホモジニアスなサーバー群に分解・集約したアンサンブルとして構成する、新しいアーキテクチャを考案したわけです。
ヘテロなワークロードもvmイメージに分解され、プロビジョニングで動的に系全体に配置されます。
④ ヘテロな企業IT環境に、ハイブリッド・システムで対応するのが②のzEnterpriseですが、このワークロード・オプティマイズド・システムの考え方をさらに追及するモデルが ITアプライアンスです。
ITアプライアンスはハードウェアとソフトウェアをバンドルした垂直統合の技術的な代表モデルであり、企業オンプレミスのコンシューマビリティ、すなわち単純さ、使い易さを追求します。
ビジネス・モデルとしてはクラウドとは対極にある考え方ですが、ソフトウェア業界の生き残り戦略として益々重要視されています。ソフトウェアにハードウェアをバンドルして差別化するのです。
OracleのLarry Ellison CEOの戦略の要のようですが、IBMでもCOGNOSのBI 製品や、CloudBurstやWebSphere
CloudBuurstなどと、積極的です。
マイクロソフトも、アライアンスでWindows Azure platform のIT アプライアンス化に乗り出しています。
⑤ ヘテロなマイクロプロセッサーのバス・レベルの密結合によるハイブリッド・システムです。
②のzEnterpriseのハイブリッド・システムは、ヘテロなサーバーをゆるく統合したものですが、⑤はマイクロプロセッサー・レベルのバスで密結合して構成されます。
パソコンやゲーム機におけるCPUとGPUの構成が代表的ですが、HPC (High Performance Computing) においても、CPUとGPGPU
(General-purpose computing on graphics processing units)の組み合わせが一般的となっていきそうです。
マイクロプロセッサーの密結合の方法では、AMDのHT (HyperTransport)が先行し、チップ内統合のオープンプラットフォームTrenzaが普及する気配もありましたが、ATI GPUの統合の躓きもあってか、頓挫したかに見えます。逆に Intel がNehalemやItaniumで導入したQPI (QuickPath Interconnect) がこれからは主流になると思われます。
微細加工技術による集積度向上のムーアの法則が依然として健在で、チップ内マルチ・コアが当たり前になるにつれ、ヘテロなマイクロプロセッサー・コアのチップ内混載が現実的になってきました。
小生はPOWER6発表の直前に、 ”IBMがとんでもない事を考えている”、と報道されたように、ヘテロなプロセッサー・コアのチップ内混載の見通しを述べたことがあります。
小生の見解に対してヘテロなプロセッサー・コアによるバスの乱れを指摘された方がおられましたが、POWER7で搭載されたeDRAMや、IBMが盛んに主張してきている 3D実装で、大容量チップ内メモリー・バッファーが現実になると、メモリー参照の不整合も解決されることになるのでしょう。
先日の日経新聞を眺めていると、”世界ICTコンファレンス 2010”の見開きで、日本IBMの久世執行役員の講演の要旨が掲載されていました。
久世さんはそこで、”ストリームとハイブリッド技術組み合わせ、より賢く”という趣旨のことを述べられています。そして”ワーヤースピード・プロセッサー”についても言及されています。
このあたりの技術動向については、小生も何回も言及していますが(eCloud研究会掲示板 D0021)、
ワーヤースピード・プロセッサーもこの4月に発表されたようで、愈々次世代の胎動が感じられます。
Intelもセキュリティ製品の大手McAfeeを買収したりで、GPGPUの動きも含めて面白くなってきました。
メモリー管理に見る巨大な箱の仮想化技術. 箱から雲への技術の架け橋
さて、IBM Power 795の1台の物理システム上で、(2011年のタイムフレームで)1000の仮想サーバ(LPAR) を稼働させることができることになりましたが、これだけ大きな仮想化を一つのHypervisor (ファームウェア)でサポートするシステムは他にありません。
あの zでさえも、Hypervisorで直接サポートするのは64LPARです。1000以上のzLinuxは、仮想化モニターであるzVM上に展開されます。
このような巨大な仮想化を実現するうえで、大量メモリー消費がシステムの大きな課題になります。
既にJavaのフレームワークの多層化などによる大量メモリーの消費などで、システムのボトルネックはメモリーに顕在化しています。
これがKVS (Key Value Store)の導入や、インメモリーDB、大量データのキャッシュ化などで、さらに逼迫するのは目に見えています。そして1000の仮想イメージの展開です。
この大きな課題を物理的に解く鍵は、FLashメモリーなどを利用したSSD(Solid State Drive)や近未来のSCM(Storage Compatible Memory) ですが、メモリー圧縮技術との併用が必須になると考えられます。
IBMはAIXのAME(Active Memory Expansion) でこの課題に挑戦していますが、暗号化処理と同様に、いずれ圧縮技術がチップ内に導入されるのも自然の成り行きと考えられます。
そして、もう一つの機能、AMS(Active Memory Sharing)が大変重要になります。
AMSにより、仮想サーバー(LPAR) 間での実メモリーの共用によるメモリー・オーバーコミットが可能になり、ワークロード実行のためのメモリー競合を動的に制御することが出来ます。SSD援用によるページングも視界に入っているようです。
このような超大規模で複雑なLPARのメモリー管理は、ページテーブルの極大化などに付随する従来に無い可用性対応のプロセスをHypervisorに課すことになります。
これに柔軟に対応するために、新しく Memory Mirroring for Hypervisor の機能が付け加えられました。
日本IBMの発表では、「仮想サーバを制御するファームウェアをメモリ上にコピーする際、二重にコピーする機能」、と説明されているようですが、誤解を招く説明です。
ファームウェアを2重化する必要などなく、重要なデータエリアを2重化して可用性プロセスの負担軽減に充てているわけです。
クラウド時代を迎えて、多種多様なワークロード対応と、膨大なメモリーの供給・管理が箱や雲に課せられるわけですが、プロセッサーやサーバー・アーキテクチャの変革が大変重要になってきました。
特にマルチコア/マルチスレッドの強化という方法で、依然としてチップあたりのムーアの性能法則が続いているわけですが、それと性能的にバランスするために、大容量メモリーが必須となってきています。
一般によく理解されていないようですが、IBM x86援用のx System のEX5は、QPIを上手に活用して、プロセッサー・コア群、メモリー群、I/O群を動的に結合する新しいアーキテクチャになっています。
このダイナミックなアーキテクチャの下で、インテルが本来、プロセッサー間結合用に準備したQPIパスをメモリ結合に転用して、標準以上の大幅なメモリー実装を可能にしています。
Nehalemになって、マルチコア化が進み、さらにQPIによるプロセッサー直接結合が可能になったために、もうチップセットは必要ないとの解説がWebにありましたが、それは間違いだと考えます。
小生は2007年に、企業システムにおける仮想化の必然性を主張したことがあります。
【仮想化最前線】「2010年の情報システムは、仮想化技術がなくては存在できない」:ITpro
世の中はそのように動いているのでしょうか。
↑
|
IT業界の風は乱気流? 雲の流れ、クラウドはどこへ向かうのか
2010年8月10日 記述
企業IT部門の、一般ユーザーやIT業界との、クラウドへのスタンスの乖離
マイクロソフトがWindows Azure platform のIT アプライアンス化で、富士通やHPとアライアンスを組み、プライベート・クラウドに大きく重心を移しだしたように見えます。
IBMも以前からプライベート・クラウドに熱心で、CloudBurstやテスト・クラウド、デスクトップ・クラウドなどを市場投入してきています。
そしてWindows Azure の技術の詳細が明らかになるに従って、ジャーナリストの方々のクラウド論でも、愈々PaaSが本格化し、プライベート・クラウドが進行するだろうという見方が強くなってきました。
これは、依然として企業IT部門の、パブリック・クラウドのGRC (Governance, Risk, Compliance ) 欠如への懸念、拒否反応が強く、パブリック・クラウドが一般解として受け入れられ難いからだと思われます。
しかし、ジャーナリストを含めたIT業界が、クラウド化をある程度必然とみているのが大勢でしょう。
一方、最近のzEnterpriseの発表でIBMはクラウドに無関心(?)な態度も示しました。
それを受けて、日経コンピュータの乱気流のコラムで北川さんは、
”IBMは雲よりも箱が好き” と喝破されました。名言だと感心してしまいました。
IBMはこの4月に発表、最近出荷となった、IBM POWER環境におけるIBM DIRECTOR, VMcontrolに於いても、クラウドという表現を一切使っていません。
zEnterpriseもIBM POWERもサーバーの話だから当たり前だろう、という声があると思いますが、これらの発表で明らかになった技術は、サーバー・クラウドと説明しても一向に問題ない代物です。
では何故IBMはサーバー・クラウドという言葉などを、これ等優れものの発表で使わないのか。
それはIBMの施策に強い影響力を持つ、世界中の企業ITのCIOレベルの意向が反映されているからだと考えられます。日経コンピュータの北川さんの言をもじれば、
”企業IT部門は雲よりも箱が好き” ということでしょうか。
実は企業IT部門は依然としてクラウド化、特にプライベート・クラウドに共感していないようです。
そして、次世代データセンター論とプライベート・クラウド論の、議論の蒸し返しが始っているようです。
この状況は、小生には、あのダウンサイジングの嵐がIT業界に吹き荒れ、企業IT部門が追いつめられていった不幸な出来事の、直前の姿と瓜二つのように見えます。
このラマンチャ通信の情報発信の主な趣旨は、老いたキホーテの経験を伝えることに置いています。
ということで、口を酸っぱくしてその辺の事情をお伝えしていますが、未だ通じていないようですね。。。
この状況は、IT部門を外から見ている人々にとっては、結構奇異に見えているのでは、と思います。
クラウドへの抵抗感を全く持っていないCEOが、クラウドの抵抗勢力をどう見るか
IBMの対応でも理解出来るように、海外でも似た状況のようです。
でも、今にCEOにやられるぞ、という、IT部門への警告が見られます。
ダウンサイジング時の米国のCIOの平均寿命は確か1.5年でした。
Overcoming Fear Of The Cloud
We are afraid of the complexity, the learning curve, lock in--and losing
our jobs.
But the biggest fear IT people should have about the cloud is failing to
understand its true business value. The cloud right now is a technology
phenomenon, but to make the biggest impact, its power must be reflected
in business terms. Migration of server assets to the cloud or taking advantage
of elastic capacity may save a few dollars, but the big money will come when business models of entire industries
are reshaped because of the flexibility the cloud offers. The IT person
who figures that out will not have to worry about losing his job or losing
data. He will be the CEO before too long.
ダウンサイジングの時も、CIOが横並びでぬるい話をしているうちに、CEO, LOBの不満のマグマは溜まっていったのです。それが一気に暴発してしまいました。
この記事では、今回は、クラウドITの経営柔軟さへのインパクトに、CEOが気づくだろうということです。
オバマ大統領のプライベート・クラウド
世界でもっとも強力なCEOはだれでしょうか。そのCEOがクラウド贔屓だとしたらどうでしょうか。
実はオバマ大統領が大のクラウド贔屓のようです。
NASA Nebula - Obama's own private cloud?
オバマが米国連邦政府の最初のCIOに、Vivek Kundraを選んだのが事の始まりのようです。
彼は、ワンシントンDCのCTOをやっている時に、IT 改革にGoogleの online office appsを選んだ。
このころにはAmazonともかなり親密だったらしい。AmazonもDCにフォーカスしていた。
彼は地方政府系ITを転々としてきた34歳の若さです。
2008年の、InfoWorld named Kundra as one of its Top 25 CTOs、にも選ばれたらしい。
で、
これらが評価されて、USのCIOに抜擢された。オバマがクラウドをやりたい、ということですね。
(最近、Vivek Kundraとは別にオバマは自分のCTOを選びました。それにしてもCTOからCIOへ、というのは新鮮ですね)
で、くだんの Vivek Kundraが、NASAが18か月(1月時点。今から2年ぐらい前)程度前からやっていたNebulaに眼をつけて、このNebulaで政府系システムのインフラ・クラウドを作ると発表した。(今年1月)
Nebulaは本来、どうもHPC、グリッド・コンピューティングの世界観で活動していたように思います。
IBMのRC2に似た、NASA研究者用の、プライベート・クラウドですね。
ここに、AmazonスタイルのIaaS をVivek Kundraが放り込んだようです。ビジネスの一般解として。
で、Nebulaは技術として、Amazon互換のオープンソース・クラウド、Eucalyptus、を一旦採用した。
Eucalyptusは、カルフォルニア大の教授だったRich Wolskiが立ち上げたクラウド・ベンチャー製です。
(当初LinuxだけだったのがWindowsもサポートされている。2つ出来ないと、クラウドではダメらしい)
以上が2010年1月発表の、”オバマのプライベート・クラウド”の技術の側面です。
ところがこの話がこの7月に急転換しました。
OpenStackという、新しいクラウド・コンソーシアムの発表です。
NASA and Rackspace open source cloud fluffer
この発表の中心は、Eucalyptusは "NASAの要求する”スケーラビリティが出ないので、Nebulaのベースから外す、ということです。Eucalyptusのコードの一部がオープンソースになっていないので、NASA
が開発しようとしているNova (Nebulaの心臓、ファブリック)を進められなかったからだとも言っています。
NASAとしては頻繁にNovaの書き換えを考えているらしく、それはEucalyptusでは受け入れられない。
いずれにしても、 Amazon互換のEucalyptusとVMwareから離れて、 AmazonのライバルRackspaceを主体にしたOpenStack を基礎に、特にこれからはオープンソース主体にNebulaを進めるということです。
OpenStack 設立の趣旨は、
クラウドの標準化、ベンダロックインの排除、そしてイノベーションの加速、と発表されています。
OpenStackには2つのベースがあって、
一つがOpenStack Compute、これをNASA Nebulaが担当するようです。自分の要件に合わせられる。
結局、NASAは NebulaをHPC/グリッドのアプリケーションでも使いたいのでしょう。
政府系Webシステムの一般解ですのでIaaSですが、RedisというKVSも使うので大規模HPCのグリッド・スケールも狙っているように見えます。これはEucalyptusの範囲から大きく外れているらしい。
Google Earth 対抗のMars View のようなWebベースの超スケールアウトをやりたいのでしょう。
もう一つが、Amazonを追っているRackSpaceのOpenStack Object Storageです。
これはRackSpaceが商業サービスとして提供しているCloud Filesをオープンソースとして提供するもの。
さて、この変更で、Kundra CIO 肝いりの米政府クラウド、Nebula が激変することになりますが、
オバマが新しいCTO、Aneesh Chopra、を新たに雇ったこともこれに関係あるのかもしれません。
Obama taps America's top techie
こんなステートメントが出ています。
Obama said he'll work closely with previously-appointed US "chief
information officer," Vivek Kundra, who's responsible for setting
technology policy across the government.
いずれにしても、オバマがクラウド化の流れを強く推すことに変わりはないでしょう。
一方で、オバマ肝いりの、政府系クラウド・コンピューティングのビジネスは巨大ですから、
IBM、HP、Dellをはじめ、Amazon、Googleなども眼の色が変わっているようです。
第二フェーズに入ったクラウド
さて、当ブログの主題である、
”IT業界の風は乱気流? 雲の流れ、クラウドはどこへ向かうのか”です。
小生の結論の一つは、クラウドが第二フェーズに入ってきている、ということです。
Google、Amazon、force.com などの大きな成功に触発されて、多くのベンチャー精神の持ち主がクラウドに参入したのが第一フェーズで、一応の成功や失敗などの多くの経験を経て、第2段階が始まった。
第一フェーズでのクラウド化の様々な試行の結果、政治的、ビジネス的、技術的な側面で、其々の真実・事実が顕在化してきています。
それが、第2フェーズでは、それらが複合化して、さらにダイナミックで複雑に回っていくのでしょう。
例えば今回のNASA Nebula とOpenStackのケースはその典型で、これだけを単独に見ていても未来は予測できないでしょう。OpenStackがどう成長していくのかは今は誰にも確言できないと思います。
Javaの時も、Linuxの時も、Xenの時も同じで、オープン化とはいえ、IBMなどのメーカー側の、ビジネスの意図が重なって、ダイナミズムが発揮されました。
クラウドでは、さらに政治的な要素が強く入ってくるために、より複雑になると考えられます。
第一フェーズの結果、異論があるとは思いますが、パブリック・クラウド系の技術がWebの基幹系的なシステム展開でも、まだまだ未熟だということが顕在化したと思います。また実証されたとも言えます。
そして、ある意味、従来のパブリック・クラウドは応用面で萎んでいるようにも見えます。
しかし一方で、政治的にも、ビジネス的にも、クラウド化への勢いは、まだ加速している。
NASA NebulaとOpenStackのケースや、その裏に見えるオバマの意思がそれを示しています。
そして、何よりも顕在化したのが、プライベート・クラウドの訴求と、そして、OpenStackの主張する、
クラウドの標準化、ベンダロックインの排除、イノベーションの加速
です。
ベンダロックインの面で、甘い罠が仕掛けられているかもしれませんが、MS Azuleアライアンスなども含めた PaaS 化への流れも含めて、クラウドは第2ラウンドに入ったと言えると思います。
やはり ユーザー主導のアーキテクチャ作りが、重要なテーマに
手前味噌に見えますが、二つ目の結論がユーザー主導のアーキテクチャ作りです。
小生は昨年5月にこのラマンチャ通信を始めて以来、一貫してプライベート・クラウドの重要性を主張してきました。
それは、永年の企業システムの課題を解決し、日本ITをイノベーションに導く方法として必須だと主張してきました。
そしてそのうえで、PaaS によるベンダロックインの排除のためには、ユーザー主導のアーキテクチャ作りが重要だと主張してきました。
さらに、そのアーキテクチャの試案として、DMTFのOVFなどの標準を仮定したラフな設計をしました。
これは、OpenStackを通してNASA Nebula、即ち、オバマのプライベート・クラウドの主張する、
クラウドの標準化、ベンダロックインの排除、イノベーションの加速、に対応するものです。
勿論この両者を並べて比較、論じるのは、”アホ”、なのは十分自覚しています。
クラウドの標準化については、小生は、プライベート・クラウドの本命はDMTFを中心に回っていくと考えていましたし、今も考えています。
DMTFでOVFなどの標準が成長していくストーリーになっているのだと考えています。
ですから、このOpenStackの発表には、HP、IBM、VMware、Oracle、EMC、マイクロソフト、Salesforce、Amazon、などの企業系クラウドのメーンプレーヤーが一つも参加していないのだと思います。
オープン系のEucalyptusまでも切り捨てられているのも気になります。
最後に、次世代データセンター論とプライベート・クラウド論について一言述べたいと思います。
次世代データセンターの技術とプライベート・クラウドに利活用されるクラウド・プラットフォームの技術は、基本的に大きな違いはありません。
しかし、仮想化の上に展開される仮想サーバーと、IaaS/PaaS/SaaS/xxaaS...などは全く違うものです。
違う、豊かな価値付を、ユーザー主導のアーキテクチャが生み出すのです。
何か詭弁に聞こえるかもしれませんが、それが出来ないと、IT屋は幸せになれない。
もっと悪く考えれば、CEOにぶっ飛ばされるのです。
次世代データセンター論は、CIOには理解できるがCEOには見えない。
逆にクラウド・モデルは、CIOは嫌いでも、CEOにはよく理解出来る。
オバマ大統領のプライベート・クラウドの例も、CEOの脳幹を激しく揺り動かすのも時間の問題です。
↑ |
PaaSの甘い罠.世界ITの下請け構造で、日本ITはさらに5年を棒に振るのか
2010年7月25日 記述
最近のクラウド論調をみると、愈々PaaSが本格化し、プライベート・クラウドとセミ・パブリック・クラウドが相助け合いながらクラウドの第2ラウンドに突入するのだ、という主張で満ち溢れ始めています。
ここでいうセミ・パブリック・クラウドとは、アウトソースのデータセンター的な位置づけを言っています。
その背景に、本来のグローバルなパブリック・クラウドの企業浸透のペースが、メールを中心としたコラボレーション以外では依然として緩やかであること、そして、クラウド時代の幕開けで強いGoogle対抗心を露わにしていたマイクロソフトの矛先が変化してきたこと、などが挙げられます。
マイクロソフトもプライベート・クラウドに重心を移しだしたように見えます。
例えば、サーバー製品調達で富士通やHPとアライアンスを組み、クラウド製品であるWindows Azure platform のIT アプライアンス化で、マイクロソフトも PaaSの覇権に乗り出したことが挙げられます。
クラウドにおけるJava受け皿の覇権を目指して、VMwareとSalesfoeceが組んでダッシュし始めました。.
IBMや、(これから踊りだしてくるだろう)Oracleの戦略も、ここに集中してくるのでしょう。
既存のグローバル・ソフトウェア大手が、クラウド時代に生き残るために、広義のAPIという既得権を振りかざして、本格的に仲間を募ろうとしています。PaaSは格好の囲い込み手段となりえます。
IaaSとPaaSではサービス利用者にとっての選択の自由度に大きな差が出てきます。
IaaSが比較的緩い広範囲なサービスの構築をクラウド上に許すのに比べて、PaaSではかなりの部分が準備された機能で管理されます。その分PaaSでは
"Jump Start" が可能となりユーザーにとってもメリットが大きいわけですが、それが甘い罠になるのは覚悟すべきでしょう。
特にITアプライアンスになると、基本が梱包ですから、下請け側の付加価値は厳しく限定されます。
一方で日本ITが、自前の新しいPaaS体系を持ち込んで、先行するソフトウェア大手プレイヤーと、PaaSの洗練度でグローバルの土俵で太刀打ち出来るとは考えにくい。
ソリューション・プロバイダーにとってはそれでも構わないと考えるかもしれませんが、付加価値を付けるのが結局最上流の手間暇かかるバリエーションに閉じ込められると、グローバル市場での中国やインドの低コスト化の競争力との戦いになり、一筋縄ではいかないと考えられます。
結局、現在の日本ITの課題や閉塞感を、先送りしたまま新時代にズルズルと入り込んでしまうのか。
Googleが折角開けてくれたIT既存勢力の風穴を、日本ITは自らの手で塞ぐことになるのでしょうか。
考えてみてください。例えばパソコンやPCサーバーで、日本ITはどれ程の付加価値、利益を得ているのでしょうか。クラウドのどこがコモディティ化し、どこでリーダーシップを発揮できるのでしょうか。
いくら巨大なデータセンターでHW系に力を入れても、Application ContainerになるAPIやPaaSのイメージ管理、運用管理を排他的に仕切られてしまうと、幾らの付加価値が、日本ITに残るのでしょうか。
知識産業とは何でしょうか。結局またまた世界的なIT下請け構造に組み込まれていくのでしょうか。
世界的なクラウド・アライアンスの形成と時期を合わすように、日本のマイクロソフトは社名を、
日本マイロソフトに変更すると発表しました。狙いはなんでしょうか。
IBMは以前から、多国籍企業からGIE(Globally Integrated Enterprise)への脱皮を標榜していますので 、日本IBMは、逆に日本を外してIBMという社名に変更することになるのでしょうか?。
ちなみに、椎木茂 日本IBM 専務執行役員のプリゼンによると、企業のグローバル化モデルには3段階があって、International, Multinational, Global(GIE) と遷移していくそうです。
International:本国で生産、外国市場に輸出
Multinational:各拠点で生産・販売
Global(GIE):地域・機能・組織を跨ったビジネスプロセスの統合.地球規模で最適化
クラウド時代に向けて、何がどう変わっていくのでしょうか。
さて、小生はこのいかにも単純なPaaS化の流れに水を浴びせたいと思います。
ドン・キホーテの仕事です。。。
クラウドの視座をもっと拡げ、搦め手で海外のクラウド技術との接点を確立すべきではないか。
その文脈での技術の切口として、基本の技術を上手に包み込みながら利活用した往年の富士通JEFの成功例を、前のスレッドで記述してみました。
斬新なスマート・インフラや多様なユーザー価値訴求の原点を大事にしながら、クラウドに持っていく。
未だ慌てることはありません。まず、インダストリー・クラウドなどが手始めでしょうか。
勿論、戦略には時の利、地の利を踏まえた大局観のもと、先ず稼がなければならないのは承知です。
小生は昨年eCloud研究会を発足してから、一貫してプライベート・クラウドを主張してきました。
しかし、内容は、今進行しつつある固いPaaS化一辺倒のプライベート・クラウドは排斥してきました。
甘い広範囲な標準化には夢を託さず、vmイメージ(DMTF / OVF)一本に絞り込んで主張してきました。
スタック・アーキテクチャからNFR祖結合のリンク・アーキテクチャへの脱皮も主張してきました。
固いPaaSなどを隠蔽・分解する、ユーザー企業主導のアーキテクチャ構築の提言がその結論です。
勿論、IaaS, PaaS, SaaS をはじめ、これから勃興してくる多様な XXaaS をも利活用するのです。
小生は5年後に、だから言ったじゃない、と、またまた嘆いているのでしょうか。
所詮ドン・キホーテのQusetなど、そんなものかもしれませんね。
しかし、ITの新世紀が始まろうとしているのです。
日本の将来の生殺与奪を握るジャーナリスト様に、もっと真剣に考えて世論を誘導して頂きたい。
本来体育会系のリーダー達であるメーカーやソリューション・プロバイダーの方、真剣に考えて欲しい。
少なくともIT自由人の方たちには、冷静に事態を見極め、リーダシップを発揮して頂きたいと願います。
やはり肝要なのは、新時代をどうリードするのか、思想性あるアーキテクチャ創りが出発点のようです。
異論反論を、eCloud研究会の掲示板で議論できればと考えます。ご意見を頂ければ幸いです。
よろしくお願いいたします。
↑ |
システムの真美善とは.もう一度アーキテクチャについてしっかりと考えよう
2010年7月14日 記述
サーバー製品を富士通やHPから調達するというアプローチで、マイクロソフトもクラウド製品Windows Azure platform のIT アプライアンス化に乗り出しました。.
以前から述べてきましたように、大手SWメーカーの ITアプライアンスへの傾斜が鮮明になりましたが、メーカー/ベンダー側の垂直統合モデルによる囲い込みが愈々本格化します。
これに対して、クラウド時代には特にユーザー企業の強いリーダーシップが求められますが、それにはユーザー企業主導のアーキテクチャ構築が必須であると主張してきました。
ということで、このスレッドではアーテクチャ論についてもう少し少し突っ込んで論考したいと思います。
真善美などと、またまたかび臭い言葉を持ち出しましたが、少し我慢して頂ければと思います。
オープンソースの世界に住むIT 自由人の方にも、出来れば、お付き合いをお願いいたします。
現在のクラウドに、ユーザー企業にとっての本質的なアーキテクチャがあるか
アーキテクチャ構築の意義やフィージビリティについて、小生はラマンチャ通信のあっちこっちのスレッドで論じてきましたが、最近、SOAの権威あるリサーチ・サイトである
Zap Think でも同じような趣旨が主張されています。
Cloud Architecture’s Missing Link
Zap Think の趣旨は、”The Missing Link: Architecture”、つまり現在のクラウドには肝心のアーキテクチャが欠けているという主張です。
ベンダー主導のクラウド・プラットフォ-ムの説明や、その導入のための技術主導の "How to" 論は世に溢れているが、クラウドがユーザー企業にとってどう生かされるのか、どう生かすのか、の本質的な議論が大変少ないと論じています。
それが存在するように見えても、結局はベンダー側の主張の受け売りで、企業の課題解決の本質に落ちていない。行き着くところはベンダー言いなりの矮小化されたクラウド・モデルに囲い込まれるぞ、と。
だからユーザー企業主導のアーキテクチャが必須だと云う論です。
パブリック・クラウドはともかく、プライベート・クラウドに対してユーザー企業が確たるビジョンを持っていないと、それは単なる旧来からのデータセンターや仮想化の議論に過ぎなくなってしまいます。
ラマンチャ通信で情報発信しているeCloud研究会は、昨年からこのような視点でクラウドを論じてきました。特に次のような例を示すことによって、プライベート・クラウドの本質的な可能性を示してきました。
- 企業が、あるいは(異業種を含めた)企業グループがグローバル展開する際のメリットと要諦
- 企業がRAやモバイルなどを利活用したイノベーションの実環境開発 (in vivo development)の要諦
- 既存システムの再利用と変革のための、アプリケーションの仮想化(アプライアンス化)の要諦
- 究極の企業クラウド・モデルとしての、"programming model agnostic" や ”リンク・アーキテクチャ”
などについて論考してきました。
さらに新しいプライベート・クラウド基盤上で、ユーザー企業のIT屋だけでなく、個人も含めたベンチャーの IT 自由人が、共に絡まりながらイノベーションを具現化していくモデルの提唱も行いました。
eVAやVACで適切に分割・隔離・分散統合されたクラウド・サービスは、安全・安心の保守志向の企業英知と、革新の夢に燃えるIT 自由人に、相互補完の絶妙のコラボレーション環境を提供できると。
現行のIT 業界モデルでは、貴種のベンチャーを下請けで押し殺すだけで飛翔させることは出来ない。
また一方で、ベンチャーに限らず一般のサービス・プロバイダーにとっても、クラウド上展開の機能特化のクラウド・サービス(VAC)の世界的な流通によって、大きなビジネス・チャンスが期待できます。
このような万民に非常に軽い俊敏な IT フットワークの基盤を提供することがクラウドの潜在価値です。
しかしその価値を具現化するためには、応用側の適切なアーキテクチャが必須だということです。
アーキテクチャとは何か、アーキテクトとは何か
では、アーキテクチャとは何か?
これが大変難しい議論になってしまいます。
そしてそれを創出する人、アーキテクト論になるともっと難しい。
ユーザー企業主導のアーキテクチャ構築ということになると、ユーザー企業にアーキテクトを求めることになります。少なくとも、メーカーではなくソリューション・ベンダーにも求めることになります。
ITアーキテクチャの元祖がIBM S/360アーキテクチャであり、アーキテクチャの語源が建築様式という言葉からきているということは、IT 屋にとって異論のないところだと思います。
そして小生のような古いIT 屋にとって”アーキテクト”とは、かっての Jean Amdahl であり、現在のSteve Jobsなどの名前が先ず頭に浮かびます。
しかし1993年から日本IBMで始まり、その後 IT 業界やIPAなどで一般化されているITプロフェッションの”IT アーキテクト”とは、一体何であるのか、との問いに答えるのはかなり難しいと思います。
日本IBMでは当初、このプロフェッションのカテゴリーを”システムズ・アーキテクト”と呼称していました。その後1996年に後追いのIBM全社プロフェッション・プログラムが発足し、”システムズ・アーキテクト”は”ITスペシャリスト”と”ITアーキテクト”に分割されました。
実は小生がこの前後4年間、1994~1997、このカテゴリーの責任者の任にありました。
そして”ITスペシャリスト”か”ITアーキテクト”かの分岐選択は、個々人の嗜好に任せたことがあります。
これって、個々人の価値観や視座を推し量るうえで大変興味深い知見を与えてくれました。
それはまた別途ホメオトシスに書きましょう。
その後、”ITスペシャリスト”と”ITアーキテクト”はIBMの中で一番反目しあうプロフェッションになってしまいました。日本IBMに限らず、グローバルでも大変な反目がありました。
また、IBMでは、この”ITスペシャリスト”や”ITアーキテクト”は開発部門とは別に論じられています。
さて、語源からみても、アーキテクチャの先輩は建築業界にあるわけですね。
アーキテクトとしても、丹下健三、黒川紀章、安藤忠雄さん、などがすぐ頭に浮かびます。建築家です。
しかし建築物は単に住居に限りません。回廊や、城壁なんかもあるわけですね。
で、未来都市構築、あるいは逆に古くはギリシャ都市国家建設など、大変大きな広がりがあります。
ということで、当然そこには設計における思想性が重要な要素として存在することが理解できます。
これは”目的とか構造”とかいう言葉には収まりきりません。
事実、黒川紀章さんは思想家としても著名で、”共生”という言葉の発案者でもありますし、哲学のプラトンや、岐阜の楽市楽座や安土城構築の織田信長の思想なども視界に入ってきます。
今絶好調のNHK大河ドラマ、勝海舟や坂本龍馬も登場してきそうです。
ということで、ITアーキテクチャが何者であるかを考えるうえで、(区別するために呼称される)”スペース・アーキテクチャ”は大変参考になります。特に思想の重要さを改めて示唆してくれます。
結論的には、この思想が今のITアーキテクチャに一番大きく欠落しているのが解ります。
そして、表題に掲げた”真美善”の言葉の背景もボンヤリと理解していただけるのではと考えます。
次にもう一歩議論を進めましょう。
実は話が複雑になってくるのですが、スペース・アーキテクチャがIT分野に進出してきています。
先ず、スペース・アーキテクチャが心理学の対象になっているらしい。
「イマココ、渡り鳥からグーグル・アースまで、空間認知の科学」の訳本に添付される形で、
”補論「アーキテクチャ」について”、という小論文を濱野智文さんが書いておられます。
ローレンス・レッシングの引用としてアーキテクチャを、人間の行動や社会秩序をコントロールするための方法の一つとして定義されている。
たとえば、「壁があればそこから先は入れない」というように、物理的な環境を設計することで人間の行為を規制する方法を指す”などと記述されています。
このようなスペース・アーキテクチャの考え方がインターネットに入り込み、仮想空間やWeb 2.0の世界を仕切る、新しいアーキテクチャ論が進行しているらしい。
これは今まで我々が馴染んできたITアーキテクチャとはかなりな距離感がありますが、無視できない。
逆に、Webにおける人間の行動、もっと言えばこれからの消費者行動は、これからのITアーキテクチャにとって大変重要なテーマになるのでしょう。
さらに AR (Augumented Reality) が成長するに従い、特にユビキタス環境でスペース・アーキテクチャとITアーキテクチャは密接不可分になっていくのでしょう。
しかしアーキテクチャがマインド・コントロールの手段だというのは、なんであれ、小生は嫌いですね。
ですから真善美を持ってきました。
サブカルチャー(?)からの強い攻勢に、企業系 IT 屋としても意地を見せなければ面子がたちません。
真美善.ITルネサンスの三種の神器、先進の技術、ビジネスの成功、社会価値の実現
ということで、ITアーキテクチャの広がりを、下図に、小生なりに描いてみました。
先ず、IT発展の経緯にそって、ITアーキテクチャの視座の広がりを上下の包含関係で描いています。
少し決めつけになりますが例えばコンピュータ・アーキテクチャからクラウド・アーキテクチャへの流れ。
さらにITアーキテクチャを左右に、システム・アーキテクチャと情報アーテクチャとに分解しました。
情報アーキテクチャという言葉は、産業技術大学院大学(AIIT)が開設したときに、戸沢義夫教授が作られたそうですが、ここではITアーキテクチャのビジネス・応用的な面の表現として使用しました。
スペース・アーキテクチャからのWeb 2.0 的なアーキテクチャ論は、上図のディジタル経済やディジタル・コンバージェンス(融合)で一応カバー出来ていると考えます。
次に表題のシステムの真美善を、小生が前から主張するITルネサンスの三種の神器、先進の技術、ビジネスの成功、社会価値の実現に(無理やり)配してみました。
この真美善は勿論西田哲学の真善美から頂いたものです。
アーキテクチャに必須の思想の訴求を、理想の追及にさらに一歩踏み込んでいます。
小生としては、アーキテクチャを、やはり、プラトンのイデアに対比したい。だから真善美です。
ドン・キホーテの心模様としては当然です。
それはそれとして、技術が真、社会価値が善と配するのにはあまり違和感がないと思いますが、ビジネスの成功が美であるのは、チョットついていけないとクレームを頂くかもしれません。
スペース・アーキテクチャ(建築学)にとって美は自然ですが、ITアーキテクチャの美しさとは何か。
ビジネスの成功とは、ビジネス競争の勝利、勝者を意味します。
そしてこの勝者はオリンピックのならい、祭典の勝者の美と表現できるでしょう。
グローバルなビジネス競争で勝ち馬になるためのITアーキテクチャは、単なる金の亡者に堕してはならないわけです。だからオリンピック競技の勝利者の美。また競争であって戦争であってはならない。
成長と福祉のせめぎ合いで揺れる現在の日本の閉塞感を突破するためには、真美善なのです。
日本建国の幻のアーキテクトの一人、倭健命の”国偲び歌”
”やまと は 国の まほろば たたなづく 青垣 山隠れる やまと し 美し”
中島が考える IT アーキテクチャのモデル
中島が考えるIT アーキテクチャのモデルを上図に示します。
これは、AIITの情報アーキテクチャ特論Iで、代用教員の小生が講義のために作成・使用した教材から持ってきました。
「アーキテクチャの語源は、建築様式のことで、ギリシャ都市国家建設の素、イデアに繋がる。
哲学とも繋がる”思想”を基にして、それを具現化するための”技術”を内包したものである。
アーキテクチャは、作られるべきシステムのインスタンスの傘となる、メタ・システムである。
この傘の下で、個々の多様なインスタンス、システムがチャレンジと共に構築・展開される。
アーキテクチャにおける”思想”は、主観的な”志向”と客観的な”指向”を骨組みにして、”領域・制約”と”規範・規約”のキャンパスに描かれ、特に
IT では品質とNFRの色合いを強く滲ませる。。。
主観的な志向では嗜好も入り混じり、多様なステークホルダー間の価値観の差異による軋轢もでる。
そのような差異を乗り越えるためには、共有出来る適切なビジョンが必須となる。
そしてさらに重要なのはエキュゼキューション、インスタンスしてのシステムが確実に構築・運用出来ることである。」
↑ |
ユーザー企業主導のアーキテクチャ構築. 例えば往年の富士通JEFが見本
2010年7月02日 記述
”往年の富士通JEFが見本”とのタイトルを見られて、大半の方が、何のこっちゃ、という反応でしょうか。
如何にも古色蒼然、クラウド論の時代にそこまで戻るのか、という呆れ顔も見えそうです。
ま、ITルネサンスがテーマですから、お許しください。
ここではJEFをサンプルにして、クラウド時代のIT技術をユーザー企業がリードする、自前のITアーキテクチャ構築の意義やフィージビリティについて考察します。
富士通JEFは勿論日本を代表するITメーカー発のITアーキテクチャですが、好事例だと考えています。
日本語情報システムJEF(Japanese processing Extended Feature)は,1979年4月に富士通から発表されましたが、日本ITマーケットを激変させた大変インパクトのある日本発の優れたアーキテクチャでした。
これを契機に富士通が日本IBMから日本コンピュータ市場の首位を奪還し、ほぼ今にいたっています。
市場変化の背景には一方で、当時のIBM互換OSとその反動という業界を大きく震撼させた風景もあるわけですが、その件はまた改めて書きましょう。
要は、このアーキテクチャ策定によって富士通は大変大きなビジネスの果実を得たということです。
その意味で、ユーザー企業が範とすべきアーキテクチャに間違いありません。
ITアーキテクチャの出発は思想性への拘り.共有するビジョンの策定
繰り返しますが、このJEFは、日本ITルネサンスを目指すユーザー企業主導のアーキテクチャ構築の面で大変参考になります。ITアーキテクチャとは何か、を語るうえで優れた事例だと思います。
内容は異なりますが、ITアーキテクチャの元祖IBM S/360アーキテクチャと比較出来る好事例です。
アーキテクチャの語源は、ギリシャに発する建築様式論から始まるとされています。
小生はそれをもう一歩踏み込んで、ギリシャ都市国家建設の青写真論から始めます。
そこにはアテネ都市国家像を描く上での激しい思想と現実のぶつかり合いがあったわけですね
プラトンの哲学の始まりです。
ITアーキテクチャを語る場合には、この思想は、xxx志向、xxx指向という落とし込みになります。
xxx志向、xxx指向の違いは、相対的なものですが、全者が主観的で後者が客観的の違いです。
あまり表だっては言えませんが、その背景には推進する個人の嗜好が入ってきます。
xxx志向が主観的なものであり、常に諸々の個人や会社の事情や嗜好が入ってくるために、アーキテクチャ策定は一筋縄ではいきません。
志向や指向のベクトルを合わせるためには、多様なステークホルダーが共有できるビジョン策定が鍵となります。少し失礼な言い方でお許し願いたいのですが、JEFの発案はSE 的で同好会的です。
富士通のHW開発部門の体育会系エンジニアの了解を得るのは簡単ではなかったのではと考えます。
JEFの場合には”日本語情報システム”という冠が、劇的な効果を発揮しました。ブランド力ですね。
当時のIBMが漢字システムと呼んでいたのに対して、日本市場は富士通の志に感応したわけです。
当時ユーザー企業が抱えていた課題解決だけではなく、夢を共有することができたのでしょう。
複雑に入り込んだ昨今の企業システムに新しいアーキテクチャの旗をたてるなど狂気の沙汰だと考えられるかもしれませんが、これはクラウド時代の場合には比較的容易かもしれません。
クラウドの名が醸すITルネサンスの機は熟していると思います。
とにかくグローバル化が激しく進む中で、ビジネスで勝ち抜くためのIT 改革は、待ったはできません。
ITアーキテクチャ論でもう一つ重要な論点は技術ですね。
思想がビジョンの軸で可視化されるとして、技術はエキュゼキューションの軸で評価される。
そのアーキテクチャは実現できるのか、どうやって実現するのか。コストは、時間軸は。
この点で、今までは、共通基盤となるシステム構造、プラットフォームやインフラ、になればなるほどメーカー系の主導権が増し、ユーザー企業はその後追い・追認に追いやられてきました。
そして、今ではユ-ザー企業のアーキテクチャ論は、SIer的な”システム開発方法論”に閉じこめられ、単なる”リファレンス・アーキテクチャ”に貶められています。パラメータのような存在感です。
一方でユーザー企業がリードするEA(Enterprise Architecture)はどうでしょうか。
小生はこれも残念ながら、管理のためのパラメータ論に偏在していると考えています。
パラメータ論はエキュゼキューションの上で重要ですが、アーキテクチャでは優先度を下げたい。
IBMがのけぞったJEFのアーキテクチャ.SE 的発想の自由な技術感覚
突然ホメオトシス風になってしまいますが、あれはもう何年前になるのでしょうか。
小生はTSEL(Tokyo System Evaluation Lab) のマネージャ(課長)ルームで、机に広げたマシン・リストを眺めていました。自分で書いたCOBOLプログラムを富士通さんのJEF
COBOLで流したコンパイル・リストです。TSELは富士通の機械を買った上で、普通のお客様と同じサポートを受けていました。
何の変哲もないリストでしたが、数分後には小生は驚愕のあまり部屋の外に飛び出して大声を出していました。
”なんやこれは!”。 西武警察風の表現になってしまいましたが、とにかく驚いたのです。
外から見れば日本語処理のコンパイラーなのですが、その処理ステップの中身は、
プリコンパイラー処理、コンパイラー本体、ポストコンパイラー処理に梱包されていました。
日本語コンパイラー・アプライアンスですね。
日本語処理と称される部分をプリコンで拡張し、富士通標準の英語系コンパイラーにそれを渡し、ポスト処理で後始末をしていました。データはSO/SI
で単純にデータストリームに埋め込まれていました。
IBM互換の膨大なSW, HW本体には殆ど手を加えずで、お見事という言葉しか見当たりませんでした。
とにかく単純明快でした。
勿論JEFの技術としてはI/O機器が重要なのですが、この単純なアーキテクチャに追うところ大でしょう。
いや~、素晴らしいSE 的アーキテクチャに驚きとともに感動しましたね。本当に。
何故そんなに感動したかというと、IBMは膨大な時間と金をDBCS(Double Byte Character Set)開発に注ぎ込んでいましたが、このJEF
を凌駕できず、もがき苦しみ抜いていたのです。
IBMはご多聞に漏れず、真っ向から新しいアーキテクチャを作ろうとしていました。
先に大手新聞企業の自動化での成功体験もあったのでしょう。
日本IBM開発部門APTOは、東大の先生と共にJIS とは別の漢字コード策定に熱中していました。
余談ですが、IBMはその後、この富士通のアプローチを参考にして、DBCSアーキテクチャを大幅に変更しました。そしてやっとJEFに追いつくことができたのです。
クラウド時代をリードする、ユーザー企業主導のアーキテクチャ構築は可能
元IBMの人間が突然富士通さんのJEF成功談を持ち出したりして怪訝に思われたかもしれませんが、小生の主張はご理解いただけたのではないかと思います。
富士通JEFが膨大な基本技術基盤を上手に前後処理系で包み込んだように、仮想化や仮想アプライアンスで各社のクラウド・プラットフォームを包み込み、仮想アプライアンス系のアーキテクチャに企業独自の価値を埋め込んでいくことによって、大きな果実を手に入れることができると考えています。
JEFが見本を示すように、スマートに構成すれば、それはそんなに途方なことではないのです。
今も内外有力メーカーやWebベンダーで開発が進んでいる、来たるべきクラウド・プラットフォーム群は、ユーザー企業ITが対応を誤れば、あのダウンサイジング以上の混乱を持たらす大魔王に成長し、手が付けられなくなる可能性も大きいと思います。
しかし一方で、周到に準備し、逆にリーダーシップを取ることが出来るなら、厳しい企業グローバル化競争の中で勝ち抜くための手段として、成功と誉のIT
基幹技術に飼いならすことが可能です。
そのためには、本来の意味であるITアーキテクチャ構築にユーザー企業自身が踏み出すべきです。
仮想化をベースにしたクラウド・アーキテクチャは、それを可能にしています。
↑ |
日本ITルネサンスへの構図.ユーザー企業主導のアーキテクチャ構築へ
2010年6月07日 記述
無統制のまま構築された多くのオープン系システムのライフサイクルが尽きつつある現在、その処遇に窮するという話題が多くなってきました。いわくオープン・レガシーのマイグレーションの課題ですね。
これも、だから云ったじゃない、という言葉しか小生には吐き出しようがありませんが、次のクラウドではこの愚を繰り返さない方策が必要です。
EA(Enterprise Architecture)などでガバナンスをきちんとしましょう、という話だけでは、クラウドの費用対効果やスピード感覚を企業ユーザが実感し始めると、とても
IT部門では押さえ込められないでしょう。
今度はハード資源が噛まないのですから、ダウンサイジングの比でない爆走が起こる可能性大です。
と言う事で、クラウド時代への展望として、小生はまず、IT部門主導のプライベート・クラウドを主張してきました。
しかし、プラットフォーム供給側のプライベート・クラウドが本格的に市場投入されると、新たに起こりつつあるこれらの課題や、現行システムの既存の問題、”システムの運用・メンテナンス費用がIT予算の70%を占めている”、を解決できるのかどうか、しっかりと考える必要があります。。
クラウドの効果は大変大きなものと考えていますが、クラウドだけでは残念ながら解決には至らないと小生は考えています。
Googleのような、現行システムをWebアーキテクチャでスクラッチから作り変えてしまうという全く新しい方向性を持った方法以外では、逆に運用上、ダウンサイジングの二の舞を踏む恐れも非常に強いと考えています。特に仮想化の方法に危険が多い。
端的に言いいますと、今、企業ITを悩ませているであろうオープンレガシー・マイグレーションのどんずまりの過ちを再び踏襲する危険性です。
物理サーバーの単純な仮想サーバー化は、問題の先送りになってしまう可能性がありますし、そのさらなるクラウド化で、ユーザのセルフマネージメント化を単純に進めますと、ITガバナンス上の破綻をもたらす恐れが多分にあります。行方不明の仮想サーバーが頻発し悪夢になりかねない。
下手をすると、新技術への後追いが、IT部門にとって如何に危険であるかを、また身を持って知ることになるのかも知れません。
一方で、プラットフォーム供給側のクラウドが本格的に市場投入されることによるユーザ企業側の危惧は、クラウドの新たなベンダー囲い込みへのリスクでしょう。
以前から識者の方々が警鐘を鳴らしておられましたが小生はたかを食っていました。
先ずクラウド化への流れを作ることが大事で、囲い込みは各社固有の技術や戦略が見えてきてからの心配だと考えていました。
でも、それが愈々顕在化し始めているように思います。
IT業界の垂直統合への動きとクラウド・モデルのハイブリッド・クラウド化への加速です。
垂直統合では先ずLarry Ellisonがそのラッパを吹き鳴らしましたが、先日SAPもSybase買収とともに明確にその意思表示をしました。
IBMなどもその成長モデルを企業買収にさらに傾斜することを表明しています。
そしてハイブリッド・クラウドへの流れが、最近のマイクロソフトの製品発表の動きなどを見ると急速に進みそうです。
ITILされどITIL。一見、ハイブリッド・クラウドの方法はユーザ企業にとってのメリットの大きい現実解に見えますが、先陣争いが過熱すると、準備されたハイブリッドの色合いが急速に増し、プライベート・クラウドとあまり変わらない囲い込み選択枝の強要になりかねません。
システム管理製品群による囲い込みによって、自由な雲に乗る筈がいつの間にか蜘蛛の巣に絡まる可能性が大変強くなります。
ということで、クラウド化への流れはユーザ企業にとって大きな救世主になる可能性があるものの、逆に、あのダウンサイジングの変革と同じ文脈での危うさが内包されていることが解ります。
ここでの主張の一つは、そうならないための、ユーザ企業主導のアーキテクチャ的な準備が必須だという点にあります。
さて、以前のスレッドで、ソフトウェア産業の危機を論じました。
そして、不況をトリガーとして現在市場を押さえている世界のビッグ・プレーヤーが震撼していることを論じました。
グラウドというIT業界のゲームのルールが激変しようとしている今、日本ITにとっても大きなチャンスが巡ってきたわけです。しかし世界のビッグ・プレーヤーの後追い戦略だけでは成功はありえない。
でも幸いにして、ルールは未だ出来あがっていませんし、予想される課題も山積しています。
ラマンチャ通信では一貫してこのテーマを追求してきました。
そして、このチャンスをしっかりと掴むためには、日本のユーザ企業自身の、そしてIT部門のビジョンの確立とそれを実行に移す強力なリーダーシップが必須であると主張してきました。
ここではこの主張を一歩踏み込んで、クラウド時代のIT業界の主導権を日本のユーザー企業に託することを提言したいと思います。
しかしそのためには、世界のビッグ・プレーヤーの技術の追っかけではなく、自身のリーダーシップを強く意識し、グローバルに通じるアーキテクチャ構築への踏み込みが必須の条件だと考えます。
それは個々のユーザー企業のEA的な纏め方の範囲では到底無理です。
また、官製的な掛け声への参画や、消極的なベンダーとの連帯だけではどうにもならないでしょう。
しかし、個々のユーザー企業ご自身のグローバル・ビジネスでの成功や、日本ITマーケット全体の活性化、そして、身内としてのITベンダーの国際競争力獲得のためにも是非とも頑張って頂かなければなりません。
大きな風呂敷を広げた一方で、誠におこがましくもあり、恥の上塗りともなりかねませんが、この大志のもとに推進しつつあるアーキテクチャの雛型、リンク・アーキテクチャの概要を、eCloud研究会の研究スレッドに書き始めています。
お時間があれば一つのサンプルとして眺めて頂ければ幸いです。
後を随時書き添えていくつもりですが、真摯な議論とともに、志を共有させて頂ければ幸いです。
↑ |
クラウド時代のJavaの行方 -3. 生き残りを賭けたJVM拡張が決め手に
2010年5月04日 記述
昨年の11月20日と 12月06日に、クラウド時代のJavaの行方 -1, 2を記述してから、この大事なテーマを放り出していました。業界の動きが鈍くて筆が進まなかったのですが、ここにきてその業界がやっと動き出したように見えます。
OracleがSunを買収、Javaを手に入れる事になった今、業界のJavaを見る目が変わるのは当然ですが、それがスイッチとなって静かではありますが業界が確実に動き始めたように感じます。
やはりマイクロソフトの動きが気になります。
マイクロソフトのAzureは元々は対グーグルや対アマゾンが目的だったのでしょうが、eCloud研究会の掲示板にも書きましたように、ここにきてAzureのビジョンとして, "programming model agnostic" と語り始めました。
そして、このThe Registerのレポートの最後に、次のような但し書きがついています。
Update: This story has been updated to remove a suggestion that Azure locks
you into Microsoft dev tools. It supports Eclipse, Ruby, PHP and Python.
小生の勝手な邪推では、この機会に眼の上のタンコブのJava開発環境をゴッソリ頂こうと思っている。
ま、ストレートには不可能ですから、徐々に取りこんでしまおうと、考えている。
勿論具体的には現れていないわけですが、ハイブリッド・クラウドを視座に据えているのでしょう。
小生は今まで、パブリック・クラウドの本流があって、その一方で企業系がプライベート・クラウドで頑張り、その流れの中でハイブリッド・クラウド化が進むのだろうと考えていたのですが、下手をするとトンデモナイことが起こるのかもしれません。
既存システムを塩漬けにしてしまったまま、一斉にハイブリッド・クラウドに走りだしそうな気もします。
後述するように、今のままの技術レベルでは、Java系はクラウドの本流にはなれないとと思います。
そして、Java系のモデルが将来的に、ハイブリッドの流れに沿ってAzureに取り込まれる可能性もある。
グーグルと違って、マイクロソフトは企業系システムを熟知していますし、マスのデベロッパーも多い。
グーグルのGAE環境でもJavaをサポートしていますが、熟成するまでには相当時間がかかるでしょう。
これに対抗する静かで大きな動きが、4月28日付け発表ののVMware とSalesforce.com の提携発表、Java対応”VMforce”の提供だと考えられます。vCloudでSpringSource-Tomcatをクラウド化する。
Javaの生みの親であるJames GoslingがOracleを退社した背景にも興味がありますが、こちらの提携の方が遥かに大きな意味がありそうです。
Javaは生い立ちからJVM(Java Virtual Machine)というプラットフォーム特性を持った言語ですが、この言語とプラットフォームのもつれが、クラウド時代におけるJavaの課題だと他のスレッドで述べてきました。
Javaが大量メモリー消費とガベージ・コレクションというHW技術のペースを大幅に上回るSWオーバーヘッドの罠に嵌まり、このまま従量制のクラウド環境に入れば失速するのは眼に見えています。
またSUNはJava自身の並行・並列処理能力の限界を、自社マイクロプロセッサーのマルチスレッド処理で図らずも露呈してしまいました。これがSUNの息の根を止めてしまった原因です。
現行スペックのままでは、マイクロプロセッサーのメニコア、メニスレッドの技術の恩恵に浴せない。
一方で、言語としてもJavaはPHP、Python、Rubyなどの動的スクリプト言語に生産性で後れをとり、ビッグ・データ処理や並列処理能力でHadoopのMapReduceや来るべきDNS
(Domain Specific Language)の後塵を拝しています。またクライアント環境はbrowser一色になっています。
そして何よりも大きな課題は、クラウド環境でのハイパーバイザーを中心に展開される動的なHW資源管理との相性や、マルチテナントでの隔離性、強靭さへの対応です。
これらの課題の殆んどがJVM にヒットする技術上の課題です。
今回のVMware とSalesforce.com の提携は、両者のコンビネーションがクラウドにおけるJava開発者の受け皿となることを明確に意識しているようです。Java開発コミュニティとインフラ系の合体です。
マイクロソフトが着々とその両方の技術ベースを作り上げて行く一方、VMware とSalesforce.com が新たなJava 環境受け皿のリーダー宣言を行いました。
ということで、Javaヘビー級の2強であるOracle/SUNとIBMがうかうかしている時間はありません。
Oracleはクラウドについて殆んど目立った動きを見せていませんし、IBMもクラウド・プラットフォーム管理では素早い動きを見せてはいますがPaaSなどのクラウド・サービスでは一貫性がよく見えません。
特に、かなり前にSUNとJavaのオープンソース化を争って、熱意が冷めているようにも見えます。
今日現在、誰が最終的な勝者になるのかは未だ判断はつきませんが、Javaがデビューしたネットワーク・コンピュティングの時代背景とそっくりの様相になってきました。
勿論、グーグルとアマゾンという先行するビッグ2の存在感は大きいのですが、既存企業システムとのハイブリッド・クラウド化がスピード・アップすると、思わぬ展開も考えられます。
これでクラウドが一気にミッション・クリティカル・アプリケーション対応を迫られる事になりそうです。
皮肉な事に今回は、当時の覇者であり、JavaのオーナーでもあったSUNの姿が霞んでしまっています。
SUNの間違いはオープンソースのコミュニティとの絡まりにありましたが、今回も開発系マインドを押さえるオープンソースとそのコミュニティとの舵とりが、この乱世の大勢を決めることになりそうです。
そしてそのコミュニティを吸引する力の基盤は、Java基盤のJVMと仮想化という、HWインベンションをSWイノベーションに吸い上げる Double
Virtualization のコンビネーション・プレイになるのでしょう。
この話の結末も、3年後になるのでしょうか。。
↑ |
お古の技術で潰した世界進出のチャンス. 5年以上の無駄を乗り超えられるか
2010年4月08日 記述
マイクロソフトが次期Windows ServerでIntel Itaniumをサポートしない事をブログで発表しました。
昨年、レッドハットがLinuxのItaniumサポートを打ち切った事に続く重大なニュースです。
このニュース見た小生の感想は、何となく憂鬱、という気分です。
ホメオトシスのスレッドにも書いていますように(↑)、小生はこの10年間、ほぼ一人で日本市場のItanium翼賛体制に反攻してきました。そして小生の危憂が愈々顕在化してしまった。
ですから、それ見たことか!、と心が弾むかなと思っていた筈が、そうはならないのが悲しい。
悪い結果が予想通りになっても、耳を貸さなかった連中には、唯、虚しさを感じるだけです。
でも、ITの風景としては締めておかなければなりません。ステークホルダーに反省を促したい。
何故何回もこんな事を繰り返すのだろう。
うまい話に乗って、結果的にグローバル進出どころか日本市場をもガタガタにしてきた付けは大きい。
しかし、何よりも重要なことは、これからどうするのか、どうすれば日本ITがグローバルで成功出来るのかを探し出さなければなりません。5年以上の貴重な時間を無駄な努力に費やしてしまった。
ざっくり評価すれば、ItaniumはオリジナルがHPの設計で、Intelがそのお古を継承したわけです。
そのダブダブのお古を日本IT企業がメーカーもサービス企業も喜んで担いで走ってしまったわけです。
ところが、日本マーケットすらHPのSuperdomeが一杯導入され、国産企業はほぞを噛んでいるらしい。
なにしろ、世界Itanium市場の90%をHPが占め、その殆んどがHP-UXというHPのUnixで動いている。
小生がItaniumを批判するのに常にPOWERを比較に出すのは、IBM POWERを国産メーカーに売り付けるためではありません。そんな事に血道を挙げる使命感なんかドン・キホーテにはありません。
本当に筋の悪いアーキテクチャのItaniumに、幾ら入れあげても無駄だと説得していたのです。
何故、x86系に総力をあげないのか、メーンフレームで培った信頼性の技術力を投入しないのか。
それでもって世界に打って出るべきだと。それを云い続けてきたのです。
Itaniumの方が信頼性が高かったから、というのが支持者の方便ですが、そんな虚構は技術者なら腹から信じているわけがないでしょう。Itaniumのアーキテクチャで謳う超信頼性の仕様など、どのソフトウェアも使っていなかった筈です。複雑すぎて使えやしない。全てが複雑で机上の画餅だった。
一方で、IntelがItaniumを守るためにx86の信頼性でサボッテいたのも事実でしょう。
しかし、これとても、AMDが64bitで先鞭をつけるとIntelが渋々それを受け入れたように、策は幾らでもあった筈です。Intel自身もこれによって、x86系のさらなる飛躍という大きな利益を得たわけです。
ISA(Itanium Solutions Alliance)という旗に参集出来る程の意欲があれば、難しくはなかったでしょうに。
さて、これからどうなるのでしょうか。国産メーカーやサービス企業はどうするのでしょうか。
メーンフレーム技術を投入したx86サーバの売りだけで、5年間のギャップを取り返せるのでしょうか。
何しろ、世間様はハードの信頼性訴求など時代遅れだという、クラウド論で一杯になってしまいました。ストリーム・コンピューティングという破壊的技術も視野に入れておく必要もあります。
今回はうまくやりましょう。
どっかに困り果てた大阪城はないでしょうか?
当方ドン・キホーテ、別名言いふらし(ホメオトシス)塙団右衛門、素浪人です。
↑ |
世界ソフトウェア業界は大動乱期へ.日本ITに千載一遇のチャンス到来か?
2010年3月15日 記述
ハゲタカ・ファンド(?)のElliott AssociatesがNovellに敵対的買収をしかけているというニュースを3/03にForbesが報道しました。Chum In The Water Around Novell
それに先だつ3/02にNovellのホームページにその事実が告知されました。
OracleのLarry EllisonがSun買収を完了して発した第一声が、「2010年の我々のビジョンは1960年代のIBMと同じだ」、ということで、改めて、かっての垂直統合モデルが脚光を浴びることになりました。
Forbesの記事にあるように、Novellの周りには血の匂いを嗅ぎつけたIT企業群がM&Aを狙って集まってきているようです。誰が何を欲しがっているのか? 興味がつきませんがここでは論じません。
従来から、企業向けソフトウェア業界の成長モデルとして、OracleやIBMなど大手企業の新興ソフトウェア企業買収が当たり前になっていました。
大手IT企業が世界に張り巡らす販売チャネルやメンテナンス機構に、買収企業のコア部分を載せていくことによって、規模の利益が発揮され、収益を生んでいたからです。
しかしこれからの垂直統合モデルの展開は、そんな生易しいものではなく、まさに恐竜世界の食うか食われるかの壮絶なシーンが見られる事になるのでしょうか。
最近のメディアでも色々と取りざたされ、辛辣で本質的な論評が多く出てきています。
The Future Of Enterprise Software
Enterprises no longer purchase software at all!
Why Cloud Computing Scares the Platform Vendors
不況が顕在化させた現行ソフトウェア・ビジネスモデルの破綻
ソフトウェア業界がおかしい、苦しんでいるようだ、という兆候は大分以前からありましたが、愈々大きな渦が巻き始めたようです。現行のビジネスモデルが実際に破綻に向かってしまうのでしょうか。
OracleのLarry Ellisonが1960年代のIBMモデルを絶叫し、SAP コ・ファンダーのHasso Plattner がメンテナンス料金の失策でCEOの頸を飛ばしてしまった(?)。サービスという金鉱脈を発見したIBMはその呪縛に嵌まり、その文法に追従出来ない虎の子の研究者・技術者の放出という致命的な愚行を積極的に推し進めている(?)。 いつも賢明な
Microsoft はクラウド時代の主導権確保に躍起になっているのが目立つが、”タダ・イズム”の文化大革命を乗り越えられるのだろうか(?)。
(タダ・イズムは小生の勝手な命名です。簡単には云えば無料化の流れのことです)
背景は結構明快です。ソフトウェア業界はイノベーションを起こせず、成長出来なくなってしまった。
既存マーケットが熟成するにつれ、新規ライセンスの収入の伸びが鈍化し、サービスとは名ばかりのメンテナンス収入への依存率が年々増加し、最近ではもう戻れないレベルに迷いこんでしまった。
自分達のソフトウェアが何らかの形で企業ビジネスの根幹を押さえている以上、少々の無理は通るだろうと思いこみ、メンテナンス料金を釣りあげることすら考えるようになってしまった。
バージョン・アップという新機能追加のビジネスも陳腐化することによって、訪問販売の押し売りと変わるところが無くなってしまった。ユーザーに要件が熟していないのに無理やり買えということになった。
もっと言えばバージョン・アップにコストとリスクが掛かり過ぎ、ユーザーには価値が見えなくなった。
一方でサービスという名の新しい収益構造の内容は、新規案件がないので、問題無く稼働している現行フトウェアのメンテナンス料に依存、つまり有事の際の安全保障代のような事になってしまった。
結果として、ここ数年来、ユーザ企業のIT予算の7割以上がメンテナンスに食いつぶされるようになってしまった。これが巡り巡って新規ライセンスへの投資をも大きく阻むことになるわけですね。
そして今回の大不況に直面して、何回目かのユーザー企業の、CEO論理の反駁が始まった。
問題なく動いているソフトに、何故高額のメンテナンス費用を払う必要があるのか。
ソフトのメンテナンスとは何か、そもそも製品の瑕疵責任ではないのか。
新しいソフトは必要ないし、動いているソフトのメンテナンスも必要がない。金は一切出したくない。
ま、イノベーションを起こせなくなった業界への、痛烈で真っ当な反応でしょうか。
予想されていた宿命.クラウドとオープンソースで忍び寄る、”タダ・イズム”の恐怖
ソフトウェア業界がこうなってしまった(?)背景にはいろいろ理由があるのでしょうが、小生が考える一番の理由は、やはり、コスト構造の全く異なる競争者を市場に参入させてしまったことだと考えます。
オープンソース、オープン・コミュニティのパンドラの箱を開けてしまった。
ソフトウェア業界にそのビジネスの本質を覆しかねない競争原理を導入してしまったのです。
初めはOSや開発系などの比較的閉じられた環境が対象だったオープンソースのソフトウェアも、
じりじりと基幹的なミドルウェアにも浸食するようになってきた。それと直接競合するソフトウェア製品の値崩れは、業界の将来への展望を悲観的にするのに十分なものになってきた。
業界が考えていた程には、彼らの製品とオープンソースとの性能・機能・信頼性などのギャップを広げられなくなってきたからです。先行するスピードが落ち、ユーザー企業が両者を同等に評価するようになってきた。
オープン・ソースも”Good Enough” のクラスに評価されるようになってきた。
そして決定的な環境要因として、Googleの”タダ・イズム”の大成功がありますす。
未だ開花していないクラウドが、これから本格化するソフトウェア業界融解の巨大なインキュベータとしてはっきりと姿を現わしてきた。失速しかけていたSalesforceのビジネス・モデルにも太鼓判を与えた。
かって理論的に予言されていた複雑系や収穫逓増のカオスの世界が現実に見えてきた。
ソフトウェア業界はクラウドの暗雲に飲み込まれる気配を強く感じているはずです。
ソフトウェアは本来オープンソースであるべきである、という主張は昔から強くあります。
随分昔になりますが、小生もヨーロッパのハードウェア技術者に諭されたことがあります。
”貴方がたソフトウェア屋は技術者として間違っている。お互いの作品内部を隠しあって、インターフェース部分でのチェックばかりに血道をあげている。全くお互いを信用せずに、”知識”を共有・共用しようとしない。だから全く技術の進歩が無いのだ。ハードウェア屋は違う。獲得した知識は全て共有・共用する。前人者の肩に乗って、さらなる飛躍を果たすのだ。イノベーションの対価は特許で配分する。”
プログラミングの経験のある方なら素直に納得していただけるでしょうが、コピーすることからプログラミングの技術習得は始まる。つまりソフトウェアにとってコピーは宿命なのですが、コピーすれば苦も無く商品を再生産できてしまう。小生は1980年代初期にソフトウェアの著作権紛争に深く関わった経験がありますが、この問題は悩ましいですね。
で、肝心な論点は、イノベーションを起こす実力は、業界かオープンソースか、どちらにあるのかです。
さて、IBMやOracleのような LinuxやJava でオープン化を仕掛けた側、即ち当時の業界の盟主、この場合はSun、を攻めたてた側にも、戦後処理の出口戦略はあった筈です。
IBMでは、当時 Nick Donofrioの後継者と目されていた John Kelly が主導した、自社開発技術とオープン系とのいいとこ取りの新しいIP(Intellectual Property)戦略が大きくクローズアップされていましたが、結局、自社製品がどれだけオープンソースを機能的に引き離す事が出来るか、に落ち込んだわけです。
そしてそれがうまく回らなかった。
ソフトウェアの新技術を自身の開発に積極的に投入していましたが、製品系のバージョンアップや組み合わせ絡みでの複雑さの逓増が足をひっぱり、前進のスピードを著しく鈍化させたのだと思います。
で、”Good Enough”に捕捉されてしまった。仕切っていたDon FergusonなどもIBMを去ることになった。
一番の落胆はSOAが離陸出来なかったことでしょう。多くの努力が水泡に帰してしまった。
大きなショックの一つには、あれだけ精力を傾けたWS-*が、いとも簡単にオープン系のRESTfullの軍門に下ってしまった。そして昨今のHadoopなどの新たな勢いです。
それらの失意にさらに追い打ちをかけているのが、度重なるM&Aによる社内開発の混乱です。
この状況は下手をすると、世界的なIP覇権・戦国時代を引き起こすきっかけになるのかもしれません。
さて、どうしたら企業は、CEOは、 ソフトウェア企業にお金を出してくれるようになるのでしょうか。
垂直統合モデルへの回帰.ハードとソフトのバンドル化時代再来は現実となるのか
この難局を乗り切る方策として、OracleのLarry Ellisonは垂直統合モデルを持ち出しました。
あろうことか、Sun買収を完了して発した第一声が、「2010年の我々のビジョンは1960年代のIBMと同じだ」、ということです。
Oracleはダウンサイジングを契機として主流に躍り出たクライアント/サーバー型のデータベース・モデルでソフトウェア業界の覇者になるきっかけを掴んだわけです。そしてそのモデルが要となってIT業界を水平統合に再編成し、当時のIBMをIT業界の覇者たらしめていた垂直統合モデルを根底からぶっ壊したわけです。
ところが、かっての水平統合モデル仕掛けの張本人の一人が、明日からは垂直統合モデルだと宣言している。 どうなっているのか。 何が同じで何が違うのか。
Larry Ellisonの心の中で何が違うかと言えば、1960年代のIBMではソフトがハードのおまけだったのが、これからのOracleではハードがソフトのおまけだ、ということでしょうか。
重要なのは、そのおまけが徹底的な競争力、差別化を発揮するスパイスだという閃きなのでしょう。
勿論主たる狙いは、長期的な観点でオープンソースの出番を無くしてしまうことにもあると考えます。
買収したMySQLもその文脈上にあるのでしょうが、何かのスパイスの役割を担うのでしょうか。
さて垂直統合は、技術的に言えば、業界成長の最大のブレーキになっている技術と製品の複雑さを克服するために、アプライアンス化を積極的に図るということです。ハードウェアからアプリケーションまで全部一式バンドルしてしまう事で、個々の製品内部の複雑な構造や組み合わせを全て隠蔽して単純化してしまう。
価格付けの面でも、いろいろと面倒で足を引っ張る詳細を隠蔽してドンブリ勘定で販売する。
ユーザーには最終価値を買っていただく。
ユーザーにとっては "out of the box" と云う事で、利活用の便宜さ、”コンシューマビリティ”の点で大きく改善されることになります。
このようなハードウェア同梱(?)のアプライアンスをITアプライアンスと呼びます。従来の比較的単機能型のアプライアンスをハードウェア・アプライアンスと呼び、これからは区別されていくでしょう。
Larry Ellisonが昨年Sun買収発表時に発した雄叫びではExadata Version 2 が主役でしたから、彼の頭にはこのITアプライアンスが戦略の要として占めているのは確かだと思います。
さて、今さらながらの垂直統合モデル、ある意味では囲い込みのジネスが成功するのでしょうか?
IBMが苦しんだ末にソフトとハードとをアンバンドルした独禁法に触れることにはならないのでしょうか。
前掲のFoebesの記事では、IBMがダウンサイジングに屈したのは技術のせいではなく、一般企業が一社の囲い込みに対して激しい憎悪を持ったせいだと書いています。
小生もこの見方に全く同感です。前にも書きましたが、当時の企業ユーザー部門の、ある意味横柄なIT部門への激しい憎悪を目の当たりにして、身震いした思いがあります。
オープン・コミュニティが成熟し、クラウドが始動する今、とても囲い込みなど出来るとは思えません。
賢明なLarry Ellison がそんな事を狙っているのでしょうか。もしそうなら彼の引退も近いのでしょう。
小生は、Larry Ellison はイノベーションを起こせなくなったソフトウェア事業の延命化のために、ハードウェア系のイノベーションを積極的に活用しようとしているのだと考えたい。
クラウド化とオープンソースで具現化される複雑系の経済、”タダ・イズム”に対抗するための方策として、ハードウェア系の発明・発見を梃子にしたイノベーションの展開を目論んでいると考えたい。
ITアプライアンスと仮想アプライアンスは別物
手前味噌のホメオトシスとなりますが、我々eCloud研究会の前身であるJEANS旗揚げの動機は、実は現在ソフトウェア業界が落ち込んでしまった、このメンテナンス・スパイラルの解決への挑戦でした。
このような負の循環を構造的に打開したいという願いでした。もっとはっきり言えば、OS やMW等のバックバージョンがもたらす、停滞による企業ITの進化阻害要因を打破したかった。
このあたりの技術的な背景を少し論考しておきます。非常に重要だと考えています。
eCloud研究会のレポートにくどく書いてありますように、 小生自身はこの問題を解決する方法として、IBM S/360市場投入以来の業界常識、スタック・アーキテクチャからの脱皮を強く主張しています。
Larry Ellisonが回帰を主張する、1960年代のIBMの技術モデルそのもが問題なのだと考えています。
40年以上前に登場したIBM S/360以来、メーンフレームやUnixなどの違いを超えて、コンピュータ・アーキテクチャは積層型、すなわちソフトウェア・スタックの構造を常識にしています。このスタックの積層でシステムを構成する考え方はあらゆるアーキテクチャで常識とされ空気のような存在になっていますが、この構造こそがシステムの柔軟性を奪っていると考えているのです。(eCloud研究会1参照)
eCloud研究会では、ダーウィン的な世代交代のメカニズムによる生物界のチェンジ&レジリエンスを真似た、サービス・リンク・アーキテクチャを提唱しています。これは仮想アプライアンス(Virtual Appliance)の技術をベースにしたeVA (enterprise class Virtual Appliance) フレームワークをプライベート・クラウドのインフラ上に構成します。eVAの明示的な版管理と、現行のミドルウェア・プラットフォームに相当する共通機能はVAC(Value Add Capability)としてeVAから外付けでリンクすることになります。積層構造を取らない。PaaS (PlatformI as a Service) の積層構造は結局は固いスタック構造をクラウド上に再現するだけなので、Zapthinkのレポートでも、現在嵌まっているソフトウェア事業の課題を解決出来ず失敗するだろうと評価しています。この辺の突っ込んだ議論はeCloud研究会のスレッドで行います。
パブリック・ラウドのSaaSに焦点をあてた技術論では、マルチテナンシーの方法(eCloud研究会11参照)が話題の中心になりますが、企業アプリケーションでは仮想イメージが大変重要になります。
仮想イメージは仮想アプライアンス(Virtual Appliance)とほぼ同じものと考えていいのですが、詳細はここ(eCloud研究会12参照)を参照ください。プライベート・クラウドでは肝中の肝の概念です。
仮想アプライアンスは主にIaaS (Infrastructure as a Service)の技術的な基礎になるものですが、仮想化によるクラウド・プラットフォームではPaaS やSaaSの基礎にもなります。
重要なことは、ITアプライアンスと仮想アプライアンスの技術上の厳密な区別です。
ITアプライアンスはハードウェアとソフトウェアをバンドルした垂直統合の技術的な代表モデルであり、企業オンプレミスのコンシューマビリティを追求します。クラウドとは対極にある考え方のアプライアンス・モデルです。”Exadata
Version 2” の講演でLarry Ellisonが主張しているモデルです。
一方で、仮想アプライアンスはクラウド・プラットフォーム上に展開する純粋にソフトウェアだけのアプライアンス・モデルです。(eCloud研究会2参照) 両者は対局にあるアプライアンスのアプローチです。
小生はIBM FellowでWebSphereのVPであるクオモとこの件で激論をかわしたことがあります。
彼はIBM DataPowerというITアプライアンスの主導者でもあります。
大変紛らわしいことには、ITベンダーがITアプライアンスをクラウド・プラットフォームとして売り出していることです。これはIBMがCloudBurstとWebSphere
CloudBuurstなどのブランド名で始めたことですが、各社が追従し、日経コンピュータでは”クラウド基盤アプライアンスが続々登場”という記事にしています。
IT業界生き残りのための激闘で、クラウド定義の主義主張は雲散霧消する
さて、Larry Ellisonの垂直統合型モデルの対局にあるのが、SaaS (Software as a Service)ですね。
ハードウェアなどのインフラはクラウド・プラットフォームに一切任せてしまって、クラウド・サービスの一つとして純粋にソフトウェアだけで生きていくモデルです。
SaaSはクラウドの議論が交わされる以前からCRM Salesforce として成功していたわけですが、SaaSはUnified Communicationのエリア、コラボレーションでも今にも暴発しそうな勢いがあります。
SaaSの発生時点の評価と、クラウドの一形態としてイデオロギー的に吸収されていく過程を素直に見れば、クラウドの定義論争などはあまり意味がないことがよくわかります。
早々と結論を云ッてしまえば、現行のビジネス・モデルの大半がクラウドと関係を持つことになる。
それだけ広義のクラウドのインパクトは大きいわけですが、一方で現在のGoogleやAmazonのモデルだけに範囲を絞って、しかも技術中心に目クジラを立てて論じる事の愚は明らかなようです。
いかにGoogleのインパクトが大きくても、他の企業群が座して死を待つようなことにはならないでしょう。
其々の企業にも優秀な技術者がいて、ビジネスの野心家も有り余るほど眼を輝かしています。
Larry Ellisonなんかも、まだまだ何をやらかすか眼を離せません。
先ず考えられるのが、ITアプライアンスをクラウド・プラットフォームとして売り出してくるのでしょう。
そしてハードウェアのイノベーションを被せてくる、そんな元気なLarry Ellisonを期待したいですね。
ここでの結論を急ぎますが、不況をトリガーとして現在市場を押さえている世界のビッグ・プレーヤーが震撼しています。脱落するかもしれない。少なくとも動揺しているようです。
ゲームのルールが激変しようとしている今、日本ITにとっても大きなチャンスが巡ってきたわけです。
ルールは未だ出来あがっていません。何でもありと腹をくくって参加すべきでしょう。
しかしこのチャンスをしっかりと掴むためには、日本のユーザ企業自身の、IT部門の、ビジョンの確立とそれを実行に移す強力なリーダーシップが必須と考えられます。あまり時間は残されていません。
↑ |
IBMがIntel QPI 対応のeX5 を発表.マルチコアScale Out 時代への先駆けか
2010年3月04日 記述
3/02に米IBM,3/03に日本IBMの其々が、IBMの次世代x86サーバーアーキテクチャである”第五世代Enterprise X-Architecture(eX5)”を発表しました。
EXAはホメオトシスのスレッドにも書きましたように、IBMが1999年夏に Sequent Computer Systems を買収して手に入れたNUMA-Qの技術を、メーンフレームのSMPディレクトリー技術などで再武装したIBM
独自の優れ物のサーバー・アーキテクチャです。
x86やItaniumの大型SMPサーバーのScale Up構成のための外部チップセットとして成功し、広くOEMもされてきました。Scale
Upとはいっても、NUMA構成のメリットを享受して、単体ボックスを追加してScale Upするという柔軟性が特徴でした。
そのIntelチップのSMP構成におけるIBM独自の技術的付加価値も,、IntelがNeharem-EXやTukwilaで、QPI(QuickPath Interconnect)という全面的なバス構造革新を行ったために終わりを告げるのかと思われていましたが、それに対応する第五世代として新しくeX5が登場しました。
アーキテクチャの全貌や詳細は未だ示されていないのですが、Tom Bradicich, IBM Fellow & Vice President of systems technology at IBM STG, の発表時のコメントや態度を見るに、これは只者ではないな、という印象です。Tom Bradicich は急速に頭角を現したIBM Fellowですが、AMDのx86-64bit
アーキテクチャを生みだしたオースティン・マフィアを構成する先代のIBM Fellow達とは違って、Intel により近い立ち位置にあるようです。Tom
Bradicich はラーレイに居を構えているようです。
一時、IBM POWER チップもAMDソケット互換になり、HyperTransport でサーバーを組み上げるという噂が飛びかっていましたが、一部のAMD
OpteronベースのHPC用ブレードで終ってしまいした。
今回のeX5ではっきりしたのは、IBMはIntelのQPIベースでxサーバーを組み上げるという意思表示のようです。
さて、従来のIntel x86系サーバーをボックスで追加していくScale Out 構成の課題は、ムーアの法則に従ったx86 プロセッサーの性能向上に反比例して、サーバー・プロセッサー利用率の著しい低下にありました。メーンフレームなどの大型SMPに於けるScale
Up構成ではプロセッサー利用率が90%などが当たり前なのに比べて、5~15 % 程度しか使いきれていなかった。
これがマルチコア化によるチップ内Scale Out が本格化する流れを受けて大きなジレンマになってきたわけですね。つまり、技術の流れに沿ったもっと上手なサーバーの作り方が有る筈だという事です。
日本IBMの発表セッションで指摘されている、CPU使用率などのコンピュータ資源の利用率向上がエコシステムの観点から大変重要になっている、だからeX5なのだ、というのは正しい指摘だと思います。
しかし日本IBMの発表セッションを眺めると、eX5についてScale Upのワーディングしか見えません。
小生はeX5の本当の狙いはScale In なんだと思います。つまり、仮想化やプライベート・クラウドの文脈でのアプリケーションの部分化(Partitioning)によるScale Outの柔軟性追求と、それを受け止めるマルチコア化によるチップ内Scale
Out を上手に活用した新時代のSMPサーバー なのですね。
従来のIntel x86系サーバーでは、チップとメモリーやI/Oとの結合が固く閉じていたためにプロセッサーが速くなるに従って頭でっかちのアンバランスなサーバーしか作れなかったわけですが、eX5ではQPI を上手に使ってこの辺の組み合わせを柔軟に構成できるようにしたわけですね。
これってチップ内Scale Out がどんどん進んで行く技術の流れを考えると大変スマートに見えます。
例えば今回のMax5の発表を見ると、同じメモリー構成を取るにしても、大変安価にシステムを組める。
例えば256GBを 4GB DIMMで組むと $250で済むし、512 GBだと 8GB DIMMで$1,000程度で済む。
仮想化の柔軟な管理系を前提に考えると、このeX5の価値は大変大きいと思います。
さらにIBMにとって嬉しいのは、サーバー構成でCiscoの呪縛から逃れる事ができる事でしょうか。
既に日立のBladesymphony ではこの発想の先駆的な先進性が見られますが、このeX5の発表を受けて、各サーバー・メーカーのx86コモディティ・プロセッサー活用の知恵比べはどうなるのでしょうか。
勿論、この系統とは違った、IBMでいえばiDataPlex のようなGoogle型の密集サーバーや、個別の安価なPCサーバー市場は別に存在するのでしょう。特にアジアなどでは有望なようです。、
いずれにしても、メーンフレームやUnixサーバーの動向も含めて、興味深いですね。
↑ |
NHK番組「プロフェッショナル 仕事の流儀」を見て想う.人を育む組織風土
2010年1月15日 記述
1/12のNHK番組「プロフェッショナル 仕事の流儀」第133回を見ていて幾つかの感想が浮かびました。
この番組のメインキャスターは茂木健一郎さんで、”クオリア”のひらめきでノーベル賞をも覗いた気鋭の脳科学者ですが、彼が引き出す、”各界超一流プロフェッショナルの真髄”、がテーマです。
2006年から始まったNHKの看板番組の一つで、内容はお世辞抜きで素晴らしいに尽きます。
第133回はIBM Fellowの浅川智恵子さんでした。
浅川さんは間接的にしか存じ上げなかったのですが、噂に違わないアグレッシブさを番組が描きだし、大変大きな感銘を受けました。浅川さんの素晴らしさと当番組に大きな敬意を表します。
そして思ったことは、浅川さんという気鋭の苗を育み大輪を咲かせたIBMという土壌、組織風土です。
IBM Fellowという技術職位は簡単になれるポジションではありません。
人を育む組織風土.組織風土を変え育てるグローバルな組織連携
番組ではIBMの企業名は一言も出ませんでしたが、番組の目的がプロフェッションの真髄を顕在化することにあるわけですからご本人を描き上げる上で当然でしょう。一方で、小生は浅川さんが大きく育っていく背景にあった当時の日本IBMの組織風土に思いをはせ、複雑な気持ちになってしまいました。
浅川さんがIBM Fellowにノミネートされたのが昨年の事ですから、”当時の日本IBM”という表現は少し物議を醸すかもしれませんが、そういうことです。当時の日本IBMの組織風土は良かった。
とにかく本音で人を尊重し、人の評価はビジネスの本質と健全に結びついていました。
で、今の日本IBMはというと、その面でかなり病んでいると思います。悲しいことに、人は簡単に自己欺瞞病に感染し、その組織は内部から崩壊、自壊していくのですね。
その辺の顛末はホメオトシスのスレッドで改めてじっくりと書きたいと思います。
それにしてもIBMを誇りに40年生きたOBとしては、早く健全な元の姿に戻って欲しいものです。
Webの時代になってから、組織風土について語られる事がめっきり減ってしまったように思います。
右肩上がりの時代には、人を育む組織風土が丁寧に議論されていましたが、今は日本国中、ショートカットの人材待望論ばかりが目立ちます。資格の定義に異常に熱心で、人材も教育パイプラインで簡単に製造捻出出来ると思いこんでいるようです。「300人準備するぞ!1000人教育したぞ!」..です。
そして、観念的にプロフェッションを語り、それを箇条書きで定義したりしています。
一方で、英才の頭脳が外国に流れてしまうのを相も変わらず無為無策のまま憂えたりしています。
グローバル日本を考える上で、優秀な外国人が日本に来てくれない、報酬が合わないからだ、なんていう論説を書いておられる著名なジャーナリストがおられます。
”坂の上の雲”でいう、陸軍大学兵学教官のメッケル少佐の事でも想い浮かべているのでしょうか。
外人が来てグローバル化が成功するのなら、例えば今の日本IBMの苦渋はきっと無かったでしょう。
日本IBMがおかしくなっている(?)のは、海外のIBM本体との組織的な連携が出来なくなってしまったのが大きいと考えています。日本IBMは、日本国内のサービス・ビジネス創設成功体験と、対アジアでの米国傀儡の中身の無い技術優越感で、いつのまにか社内の多くの技術者が自己欺瞞の伝染病に感染してしまったからだと小生は考えています。技術者が張り子の虎になってしまった。
これには複数の感染源を想い浮かべますが、その感染は瞬く間に全社に拡がってしまいました。
そして、右にも左にも、本質で連携出来ないガラパコス状態になってしまったわけです。
でも、心あるリーダー達や明日にチャレンジする中堅若手技術者がきっと再起させてくれるでしょう。
日本が、改めて技術立国として21世紀を乗り切るには、海外企業との組織的な連携が一つの方法だと考えています。特にIT業界にとっては欧米系企業との密接な連携が必須だと思います。
グローバルな組織連携によって、日本の企業組織もグローバルな価値観、行動様式に変われる。
これはOEMで素材を調達したり海外渉外部門が頑張ったりする今までの点と線のスケールでは不可能です。組織ぐるみの真剣勝負の協業と努力が必須となります。
グローバルな組織連携で日本の組織風土が変わり、その組織風土がグローバルな人材を育む。
Webの世界が切り開くソーシャルネットワークの個人参画の方法では、恐らく日本は中国やインドの俊才に質量ともに太刀打ちできないと思われます。
日本人の控え目な特質は一朝一夕には変わらないし、何よりもランゲージ・ギャップの壁が大きい。
少数の個人をグローバルに晒すよりも、企業組織で面的に連携していった方が成果が大きい筈です。
日本人に天才を求める施策ではなく、ずば抜けた民度の高さと組織力を武器にすべきです。
余談ですがプライベート・クラウドが役にたつかもしれません。
今日のニュースでパナソニックが既にこれに着手したことを知りました。
↑ |
ITproの”国策スパコン、復活の意義を問う”企画の健全さ.発言するIT屋へ
2010年1月08日 記述.
2009年のブログは、悲しむべきというか、情けないというか、やり場の無い暗い気持ちで終りました。
大袈裟ではなく、この国がどうなるのか本当に心配でした。
理由は、日本の先行きを決めてしまう施策が、まっとうな議論を経ずして結論づけられる異常さでした。
そんなプロセスに大半のマスコミも加担しているのではないか。
暗澹たる気持ちでした。いつか来た国家としての失敗の道をまた辿るのか。
それが2010年・年初のITproの企画を見て大きく安堵しました。
日経コンピュータの島田昇さんが、昨年、やはり ITpro を通じて行った読者アンケートをベースに、有識者の発言をシリーズとしてあらためて掲載されています。
これって、結構勇気のいる企画だと思います。立派だと思います。
日経コンピュータの谷島さんが、永年にわたって実践してこられたCEOに発言し、CEOに理解させる企業を憂うIT屋の延長線上にあるのかもしれません。
今、IT業界全体が、かっての商社や”鉄は国家なり”の基幹産業のリーダーの気概に伍して、世界における国家のビジネス・ゲームで、日本企業全体を引っ張るリーダーシップを要求されていると思います。
↑ |
国家スパコンなどに見える異常な議論の運び.日本は自爆する道を歩むのか
2009年12月11日 記述.
今、悲しむべきというか、情けないというか、やり場の無い気持ちですっかり落ち込んでいます。
この国はどうなるのでしょうか。大袈裟でしょうか?
このサイトでは政治的な発言を控えたいと決めているのですが、どこまで守れるのかどうか。。。
今回の国家スパコン案件に対して、 IT プロの大半が反対か疑問に思っているようです。
それが何故か大した議論も行われずに決着しそうです。
IT屋は、このような半ば相手にされていないプロセスで、良しとしていいのでしょうか。
思い返せば、IT 屋、IT 業界自身が、真摯にこの国の将来を考えて行動してきた事があったでしょうか。
過去、xx国家プロジェクト、yy国家プロジェクト、などなど、その殆んどに対する私たち IT 屋のスタンスが、本音と建前を別にして 多くの過ちを看過してきたのではないでしょうか。
ニタニタしているうちに、結局、身動きできない程、日本の IT は逼塞してしまいました。
NHKが、お昼のバラエティー番組に、意図的な国家スパコン開発必然論のコマを挿入
先程、NHKのお茶の間相手のお昼のバラエティーを見ていました。あの写真家のアラーキーさんがゲストに招かれてすっ飛んだ会話をされるのを楽しんでいたのですが、、突然スパコン仕分けの解説コーナーが挿入されました。しかもさりげなくではありますが、如何にも意図的なものでした。
このコマの意図は誰が見てもはっきりしています。エモーショナルな推進必然論です。煽りです。
それを驚く事に茶の間に直接放りこんできました。明確なマスコミによる世論操作です。
小生はこのスパコンの件については、既に、じっくりとした論議を6月10日のスレッドで書きました。
それはラマンチャ通信を始めるきっかけでもありました。
小生の意見ははっきりしています。今のままの国家スパコン開発計画には反対です。その理由はブログに書きましたし、あまり付き合いたくないテーマだったので、以降ダンマリを決め込んでいました。
それが、思わぬNHKの今日の行動を見て、反骨のスゥイッチがONになってしまいました。
こんな風にこの国の未来を決めていっていいのだろうか。誰がその責任を取れるというのだろうか。
ここず~っと、こんなことの繰り返しではなかったか。
小生の結論は、ともかくもっとオープンな議論をして、しっかりとした戦略を立てるきだと思っています。
先日のITProのアンケートでも、もっと議論が必要だという項目を選択しました。
小生のここでのテーマは、議論を誤魔化して、スキップして、恣意的な結論を手にする、長い目でみれば結局亡国にいたる意思決定プロセスに対する警鐘です。いたたまれなくなってしまいました。
このNHKの論法は稚拙でアンフェアーのものでした。スパコンの応用が大事だという切り口でスタートし、だから国家スパコンが必須だという結論にそのまま持って行きます。そして、最後の一分程度で、でも維持費がかかるんです、と言ういつもながらの、論理構成の似非バランスを装うパターンでした。
スパコンの応用が大事なことに誰も反対していない。そんな事が議論になってはいないのにです。
大事なスパコン応用の成果を,どのようなスパコンで実現するのかが議論になっているのにです。
番組ではそれには一言の言及もなかった。偽善がどんどんこの国を蝕んでいるように見えます。
本当は世界で孤立するかもしれないプロセッサー開発に最初から固執しないで、スパコン応用面の内容や範囲、成果が出る時間軸や費用対効果をもう一度議論して出発するのが自然です。
自前のプロセッサー開発にあくまで拘るのであれば、論点をすり替えるのではなく正々堂々と主張するべきです。このプロセッサーに纏わる議論は本当は重要で、日本の
IT をどうするのかの大きなテーマに関わります。それを避けて一位だ二位だと煽る理由は何なのでしょうか。
これからも、この論点を隠し続けるために、応用面での議論のトリックを続けるのでしょうか。
今年世界一位を達成したCrayのスパコンは、コモディティ・プロセッサーのAMDを素材にしています。
伝統的にマイクロプロセッサー技術評価のリーダーである米マイクロプロセッサー誌の記事は、組み込み型マイクロプロセッサーの技術論で埋め尽くされています。
チップの浮動小数点処理の高速化に偏った設計が、ハードウェア技術の何を革新するというのでしょうか。技術者育成にどのように貢献するのか。正当な理由があるのならきちんと主張すべきです。
一枚の舌では産業のガラバコス化の脅威を叫び、もう一枚の舌では国家スパコンの必然を声高に叫ぶ理不尽さ。そして、議論を封殺するために人気取りのポピュリズムを利用する。 身震いします。
今、また、この国の議論の進め方がおかしくなっている
ノーベル賞受賞の御大の方々が群れを組んで恫喝する。それに上乗せして有名大学の学長までが、これも群れを組んで圧力をかける。何を主張しておられるかと思うと、世界一位でないとだめだ、ということのようです。
仮に、しわけ作業の言葉が乱暴すぎたとしても、もっと冷静にならないといけないのではないですか。
何故、リーダーとして、お一人、お一人でご自分の意見を論理的に述べられないのでしょうか。
ボトムでの真実を求める議論を推し進める提言もせず、群れを頼んで、十把一絡げで”科学技術は大切なんだ!”というトップダウンの迫り方をするのが、科学的、技術的だと信じておられるのでしょうか。
この件について、少なくとも回りの事情通と議論を重ねられたのでしょうか。危険ではありませんか?
日本人が伝統的に大切にしてきたストイックさ、恥の姿勢は何処に行ってしまったのでしょう。
感情論を煽りたてる先頭にノーベル賞受賞者まで担ぎ出して脅す。物事を決めてしまう。
こんな風土を黙って見過ごしていいのでしょうか。
恐ろしい事に、このような曖昧で恣意的な意思決定プロセスがあっちこっちで当たり前のようになってきました。しかも方法が陰湿になってきました。
一方で、掴みどころのない、”見せかけの議論”のプロセスもあらゆる場所に浸透し、悲しいかな今の日本は、笠置静子のあの懐かしい歌(ご存知ですか?)ふうの、”何が何だかさっぱり解らず”状態の、”買えないブギ”のまま、深刻な事態だけが静かに進行しているように見えます。
そしてさらに恐ろしい事に、NHKの例に見られるように、多くのマスコミも共犯のように見えます。
これは、いつかきた日本自爆の道に通じているのではないでしょうか。危険ですね。。。
今、必要なのは、オープンに論理的に議論を進める方法の、民族的な学習のような気がします。
”坂の上の雲”は何を目指し、何を得たのか
同じNHKで、司馬遼太郎さんの坂の上の雲が始まっています。
ドラマとしての素晴らしい構成と、熱血の役者の皆さんの超弩級の迫力に、感涙しながら久々の大作を楽しまさせていただいています。そして司馬遼太郎さんの描く熱気が、その精神の美しさが、昔、小生らが激しく感応、高揚した元気印の力の源泉として、若い人達にもう一度伝わる事を願ってやみません。
日本人はやれば出来るのだと。その意味では、このドラマの意図には賛成です。
そして再び宇宙戦艦ヤマトも、厚い氷を破って再発進するのだそうです。
一方で、グローバルな世界と向き合い、改めて溶け合って行く上での、独りよがりでない日本人の立ち居振る舞いにも目を配る必要があります。藤沢周平さんのボトムに沈む心模様の繊細さでもって。
日本人は、今がやはり一番大事な局面にいるのでしょう。未来へのスタンスをどう取っていくのか。
特に IT の世界ではどんどん国の境界が消えていっています。鎖国のような線引きは勿論出来ない。
そしてサムライ心にもとる他人を慮らない恥知らずの行為は自滅の道なのも解っています。
逆に日本人の真の誇りや宝物を恣意的な動機でないがしろにすることの愚さも解っています。
限られた時間軸の中で、日本の戦略や戦術の策定と意思決定は大変困難なものでしょうが、それでも勝利しなければなりません。その意味で、もう、雑で曖昧な甘えの意思決定は許されないでしょう。
過去に、この坂の上の雲に駆け上がろうとして結果的に大きく滑り落ちた経験が幾つかあります。
その多くは、サムライ心に反する傲慢と欺瞞のなせる結果でした。サムライだと言いながらです。
IT の世界にもそのような風景がありました。その現場にいた小生は、 My Quest の一貫として温故知新の情報発信に、個人的な損得を超えて、努力したいと思います。今、改めて思い直しました。
この国には、もう2度と失敗は許されないのですから。
↑ |
ラリー・エリソン恫喝の空振り(?) と、瓢箪から駒のIBM DB2 pureScaleの発表
2009年10月23日 記述. 11月13日 図と解説追加
9月15日、OracleのLarry EllisonがSun買収を表明後始めて積極的な言葉を発したのがIBMへの挑戦状です。10月14日のOracle
Worldで、IBMに先ず一発喰らわせてやると。ところがこのOracle Worldが全くの空振りとなってしまいました。一方でこれに積極的に反撃姿勢を示していたのがIBMです。密かに開発を進めてきていたと考えられる仰天する技術を、Oracle
Worldにぶつけてきました。
しかしエリソンが何となく矛先を収めたため、取りあえず喧嘩の先送りのような状態になっています。
ラリー・エリソンは何を狙っているのか.クラウドに立ち塞がる大魔王になれるのか
今回のエリソンのドタバタ劇を見ると、アレ~という感じがします。老いたりエリソン、の感もあります。
MicrosoftのBill Gatesや、SUNのScott McNealyという IT妖怪が去って、Ellison あなたも去るのか?
それとも妖怪を超えて終にIT業界の大魔王たらんと腹を決めたのでしょうか?
Bill Gates 30年+(?)、Scott McNealy 22年、Larry Ellison 32年、CEOとしての在籍期間です。
Googleの出現によって、確かに時代が変わりつつあるのかも知れませんね。
この件をあまりよくご存知ない方のためにドタバタ劇の顛末を以下に簡単にまとめます。
- 4/20/'09: IBMの買収不成立を受けて、間髪を入れず、Oracleが$7.4bnでSun買収を発表
- IDCによると、今年第2四半期(4-6月期)におけるSunのサーバ売上高は前年同期比37.2%の大幅減
- OracleのSun買収を米国司法省(DOJ)は承認しているが、EUがDB市場(MySQL)に「重大な懸念」.来年1月中旬までに調査の結論を出すことに.
- 9/10/'09: Wall Street Journal とThe Economistに、エリソン自著のIBM HWビジネスへの宣戦布告・宣伝を掲載.SPARCとSolarisへの投資継続を確約.同時に
"Sun+Oracle is Faster" ということで、10月14日のOracle Worldで”two-digit performance”のTPC-Cべンチマーク発表でIBMノックアウトを予告.
ちなみに IBMは現在 POWER6 SMP & AIX-DB2で6万TPMの世界最高速記録保持
- 9/19/'09: エリソン自身がWeb videoでSun HW(x86)のITアプライアンス、"Exadata Version 2"を発表
- 9/20/'09: エリソン言.Sunが毎月1億$損を垂れ流している. EU承認が遅れれば遅れるほど損失大
- 9/29/'09: TPC 協会 がIBMとの比較広告をめぐり、米Oracleに$10,000の罰金と是正措置を命じた
- 10/11/'09: Oracle Worldの前夜祭で、10月14日を待たずにOracle-SunのTPCのベンチマーク結果が公表された.大方の期待に反して、たった26.8%増しの7.7万TPMしか達成できなかった.
在野から、確かに”two-digit”だと冷笑される始末になった。
レスポンス・タイムが16倍というのはSSDを使えば当たり前として切り捨てられた。
- 10/14/'09: という事で10月14日のセッションでエリソンは何も喋る事がなくなってしまった。壇上で持て余しているとシュワルツネッガーがショッションを遮り、助け舟を出した.
Schwarzenegger rescues Ellison keynote from jaws of banality
(このサイトには盛りだくさんのブログで今回の顛末が詳しく書かれています.)
- 10/20/'09: Sunが全世界で最大3000人削減を発表
この一連の騒動を見ていると、さすがのエリソンも随分焦っているなぁぁというのが正直な感想です。
Sunの売上げがどんどん落ちている。背景には、どうもIBMのUnix市場での思いの他の躍進がありそうです。日本IBMの体たらくだけを見ていると解りませんが、米国市場でのIBMのUnixシェアが金額ベースで50%に迫っているそうです。3位のHPの約2.5倍もある。HPに噛みつかないのはこの辺の事情もあるのでしょうか。IBMメーンフレームの寡占状態も考えると、
DB2をはじめとするIBMミドルウェアをエリソンが改めて強く意識し始めたと考えてもおかしくはないでしょう。IBM POWERが売れることによって、Oracle
DBも売れるので両者は強いパートナー関係にあるのは事実ですが、一方で永年の競争者としての緊張関係も潜在的には常に渦巻いています。マイクロソフトのバーマー現CEOは、有る時期、異常なほどのIBMパラノイアと呼ばれていたことがあったそうですが、エリソンはどうでしょうか。
IBMのSun買収劇に瞬間的に反応したエリソンの気持ちが解るような気がします。
一方で、クラウド・コンピューティングの登場が今回のいきさつに関係あるのでしょうか。
小生は大いに有ると考えています。クラウドの時代になると、SWアプライアンスやクラウド・サービスという形態でSWデリバリー・モデルが大きく変わります。現行のSW業界のビジネスモデルが壊れるかもしれない。ここ数年、OracleやIBMはSW企業買収でビジネスを伸ばしてきましたが、これもいずれは限界に直面するでしょう。
クラウドに対抗するモデルとしてIT(HW)アプライアンスがあります。オンプレミスでSW梱包の機器を持ち込めば、ユ-ザーはすぐに、簡単に使えるという代物です。DWH専用機が一例です。
エリソンはどうもこの形態を本命視しているように見えます。IBMのSW事業のリーダー達もこれを強く意識しているようですが、IT(HW)アプライアンスはクラウドの流れには結局対抗出来ないと思います。
IBMにはいろんな選択肢や組み合わせがあるだけに、エリソンの焦りは本物のように見えます。
大魔王としては、どのような秘策を隠しておられるのでしょうか。楽しみです。
Larry Ellison, Oracle's chief executive officer, has ants in his pants.
Or something.
IBM DB2 pureScale は Sysplexのオープン版.クラウド・コンピューティングのDB基盤へ
今回のエリソン恫喝のお陰で、技術者として大変面白い贈り物を手にしました。瓢箪から駒の例えの如く、IBMからIBM DB2 pureScale,
PowerHA pureScale というとんでもない代物が飛び出してきました。
クラウド・コンピューティングの技術論が、WebやGoogle流のKVS(Key Value Store)の論議で埋め尽くされ、RDBが世に出た歴史的背景やDBの本質を重んじる小生には甚だ’遺憾’な議論が跋扈していたのですが、これで大変面白くなってきました。CAP定理だとか、BASEだとかの主張は、WS-*の前夜に似てWebベースのトランザクショナルなレベルではおかしくはありませんが、Codd
& DateがRDBで確立したデータ一貫性の重要さはベースの企業システムにとって心臓にあたります。今回の技術が本物であれば、既存の企業系アプリケーションに手を加えずに、ACID(トランザクション処理の厳格さ)を支える、超スケーラブルなスケールアウトDBを構築できるわけです。
発表文によれば、unlimited capacity,continuous availability, and application transparencyです。
Press Release
Transparent Application Scaling with IBM DB2 pureScale
64台の Power server クラスター接続で90%以上、100台の Power server クラスター接続で80%以上のスケーラビリティということです。仮に、前に論考したPOWER7の巨大なSMPスケーラビリティと組み合わせると、ACIDな単一DBとして十二分にunlimited capacityクラウド環境を構成することができそうです。もっとも、更新を伴うスケール・アウトDBはサーバー間通信のオーバヘッドが大きく、業界でシェアが大きいOracle
RACでも2~3台が一般的なスケールのケースなっています。
これが100台などという数字を持ち出されると、当然その仕組みが本物かどうかの議論が必須です。
注意しなければならないのは、TPC-Cベンチマークのデータのシェア処理が3%程度しか被ってなく、データが殆んど分散されている状況での数値だという点です。ユーザー実環境では当然もっと重い。
IBMの技術にあまり関心の無い人達には、IBMのオープン系のDB2がこれまでシェアード・ナッシングを謳っていたのが、やっとシェアード・エブリシングのOracle
RACに追随したのだろう、というぐらいの感想でしょうが、技術の内容を見るとそうではありません。技術の中身は、eCloud研究会として別途他のスレッドで詳しく論考したいと思いますが、Oracle
RACとはスケーラビリティが全く違う筈です。
時間軸では、Oracleのシェアード・エブリシングはDB2 for z/OSのシェアード・データの後Oracle RACで実装されたのですから、今回、OPEN系DB2が先祖返りしたという事でしょうか。もともとOPEN系DB2は大規模なDWHを狙ってアーキテクトされました。これはPOWERの中興の祖がMPP指向だったからですが、このアーキテクチャはOLTPではOracle
RACにかなり劣勢であったのは確かです。
今回のpureScaleの発表そのものはエリソンの恫喝に反発して急いで準備されたものでしょうから、これから時間をかけて全貌を現してくるものと考えられます。
さて、今回の技術の源流は、1995年頃から市場で活用されているDB2 for z/OSの シェアー技術そのものと、CF(Coupling Facility)のようです。zのCFがプロプライエタリーな技術の塊だったのが、今回はRDMA(Remote Direct Memory Access) というオープンでスケールアウトな新技術に拡張・実装しています。RDMAはIBMがfuture
I/Oというオープンなシステム間通信の黎明期からInfinibandへと大変力を入れてきた技術の延長線上にありますから、ま、業界初の本格利用というのも頷けます。この領域はスパコン開発と技術がダブッテいますのでIBMの強みを発揮する分野です。
今回はとりあえず信頼性のための2重のPOWERベースのCF(powerHA pureScale cluster acceleration facility)が要となるようです。このCFは仮想イメージで仮想化上に実装するそうですから特別なHWボックスが必要ないようですが、2重のCFが乗る物理サーバーは別建てにする必要があるでしょう。一般サーバーと同期結合のCFを軸にしているのでサーバー・ダウン時のtake
over timeは該当するフライトのリカバリーだけでよく、異常検出時間が速いため全体で約20秒以下ということです。また系全体の構成がPowerHA
pureScaleという分散型の管理系にあるため、N+1スタイルのactive-active型の高可用性となっています。
下図のように、RDMAはOSなどの割り込み無しでサーバー間でデータの直接書き込みが可能な同期型なのでオーバーヘッドが最少なのですが、逆に完了のトリガーが無くsend側のpollingによる検知がオーバーヘッドとなります。また受信側でも常に受信状態が必須です。これがRDMA実装の大きな課題となっていたのですが、Sysplexの経験により、受け手側をCFという占有仕様に絞り、最少のラウンド時間にすることで解決しているのだと考えられます。pollingのCPUコストは、マイクロプロセッサーのマルチ・スレッド/マルチ・コア化の方向性と仮想化技術の熟成によって、クラウド・サイズになっても問題にならなくなると考えられます。
以上の論考と下の概念図は、DB2 for z/OS のCFのスペック・経験からの類推です。
小生達は、1990年代の初めから、CMOS & Sysplex の技術と格闘し、当時の未だ技術的に理不尽なダウンサイジングの流れに抗して日本の企業基幹系システムを守り通しました。並列型メーンフレームのキャッチ・フレーズのもと、当時のスケールアップの典型であった恐竜型メーンフレームを、CMOSマイクロプロセッサーとSysplexと呼ぶDBスケールアウト構成に置き換え、超越したのです。
今回の技術も、この故事のように、クラウド時代の企業システムを新エンタープライズ・システムとして飛翔させる、”銀の弾丸”になるのだと思います。一技術者としての血が騒ぎます。
思い起こせば、Sysplexでは、世界で最大・最初のシステムが日本でスタートしました。NTT STARです。このシステムの成功のためにはお客様をはじめ想像を絶する努力がありました。そういう意味では、100台以上を視野に入れたこのDB2
pureScaleがそう簡単に活用できるようになるとも思えません。企業の枠を超えた技術者の夢を結集して、日本発の斬新なプライベート・クラウド構成技術として大成させて欲しいものです。
↑ |
クラウド・コンピューティングを日本 ITルネサンスの魁(さきがけ)にしよう
2009年10月08日 記述
”ITルネッサンス”の言葉は、既に日経コンピュータの2002年4月8日号の特集記事で謳われています。そこでのこの言葉のテーマは、”ITによる日本企業(日本社会)の再生・再興”の志だと説明されています。この志は小生にとっても最重要のテーマです。内閣官房情報セキュリティセンターが言っていた”ITルネサンス”も同じ志だと思います。小生はこのテーマに、さらに”日本ITそのもののルネサンス”のテーマを付け加えたいと思います。またここではルネサンスの表記に統一します。
システム開発技術論に覆われた日本ITの視界
常々日本ITの現状と将来について憂えてきました。このラマンチャ通信のサイトを始めたのもそれが理由です。日本ITはうまくいっていないと思っています。世界をリードするオリジナルなアイディアも皆無に近いし、3K、4K論に代表される人工(にんく)による負のループに業界の視界は覆われたままです。
小生にとっては、理由は明白です。IT技術の視界が、システム開発方法論だけに占拠されてしまったからです。しかも、その方法論はソフトウェア開発論のお作法をそのまま持ち込んだものです。
システム開発は勿論大変重要なテーマです。その方法の技術論も大変重要です。しかし素材としてのコンピュータ革新の技術を視野に入れないのでは、宮大工の世界と同じです。(宮大工さんお許しください.これは単なる比喩ですので).宮大工を集め、養成して,100階建の超高層ビル建設に挑戦し続けているようなものです。
本来は違っていたわけです。コンピュータの革新があって、その応用があった。少なくとも応用側からはコンピュータの革新にリクワイアメントをインプットして、技術革新は回っていたわけです。
コンピュータの革新、すなわちITプラットフォームの革新ですね。
Googleが持ち込んだインパクトは、このプラットフォームの革新です。システム開発の方法論ではありません。一方で、日本IT業界にはプラットフォームの革新を考え出す技術屋がいなくなってしまった。
この現状を作ったのは日本IBMだと理解しています。作った時点の動機は正しかったし大成功もした。
ダウンサイジングの大波の中で、コンピュータの素材がメーンフレームからコモディティ部材に変わり、
応用システムの作り方が難しくなった。そこにビジネスの活路を見出して危機を乗り切った。
サービス事業ですね。そしてIT技術の視界も大きく変わったわけです。
プラットフォームの技術が矮小化した分、システム開発の技術論が肥大化したわけです。
このような日本ITの視界の下では、クラウドが理解できず、迷走するのも仕方が無いように見えます。
2つの論議に見える日本ITの危うさ
一つ目は経済産業省、奥家さんのイニシャティブです。良く練りぬかれた、大望ある戦略性に深く感じ入ってしまいました。尊敬してしまいました。
奥家さんの論考の一つへのリンクです。
高度情報化社会の実現へ-情報システムの信頼性とセキュリティを高めよ
以下の論議は内容を問題にしているわけではありません。一連の議論の流れを全くの部外者として眺めた勝手な論考です。誤解や間違いがあれば皆々様のお許しを請います。どうか一つの議論としてお受け取りください。
奥家さん達は、結果的に、NFR(Non Functional Requirement)のステークホルダーによる共有の仕組みを策定されようとしていたようですが、NFR(特にシステム信頼性)をなんとか押さえこんで、ITイノベーションを起こしやすくする、というのが本来の動機ではなかったかと類推します。ところがシステム開発論のNFR袋小路に入り込んでしまったように見えます。ITA(IT Architect)にNFRの抽象化/標準化を論じて貰うと、山のように"出来ない論”が返ってきます。そんな中で出来上がった成果物を拝見させていただくと、これは素晴らしいものだと、タスクの方々の力量に心底から脱帽します。しかし、本来の文脈からすれば、これは少し違うのではないか。小生の勝手な思い込みかもしれませんが、日本ITを世界に飛翔させるために、NFR、信頼性設計の日本の実力をブースターにしたいという動機はどう満たされたのかがよく解りません。
外から拝見させていただくと、この研究会のンバーは全てシステム開発の有識者ばかりのように見えます。ベンダーの方々も全てサービス事業部門の人達のように見えます。このリーダーの方々は良い意味で現場に強く責任感も強い。それ故に常識論が大勢を占めてしまうのではないかと類推します。
ここからは、抜本的なプラットフォームの技術革新の発想は出てこないと思います。
一発逆転のホームランを言っているのではなく、このような体制が大勢だとすると、これからも技術の夢を語りあうことがスタートラインにも付けないのではと危惧しているわけです。
二つ目は早稲田大学大学院の丸山不二夫客員教授のご講演です。
日本人開発者は、50億人がクラウドを使う「第二の情報爆発」に備えよ
ここでも、内容を問題にしているわけではありません。逆に広く深い見識に圧倒されています。
またクラウド開発に挑戦すべきだという呼びかけにも深く同意します。
一方で、ここでも非礼も顧みず、勝手な小生の論議の槍玉に挙げる事をお許しください。
小生が危惧するのは、先ほどの話とは逆に、一発逆転ホームラン願望へのスタンスの危うさです。
また、丸山さんの、技術の立ち位置の計り知れない自由さです。
丸山さんの反権力的なスタンスや、技術を通したボトムアップからの革新志向には強く共感しますが、
丸山さんの影響力の大きさを考えると、中途半端な自由人が夢遊病になってさ迷うのを恐れます。
誰がどのビジネス・モデルで何を開発するのか。結局また国家に持ち込んで税金で漠とした何かを始める破目に落ちいるのではないか、ガチンコの技術者が益々クラウドに反目するのではないか等等。
かなり昔の話になりますが、IBMには Institute, Research, Laboratory という日本語訳の研究所が3種類ありました。ビジネス環境が厳しくなって真っ先に屠られたのがInstituteです。インターネットの技術者の世界、そしてWeb
2.0で隆盛を極めている技術コミュニティはInstitute的ですよね。
比喩が乱暴で古い言い方になりますが、同好会と体育会系の違いのニュアンスしょうか。
小生はIBMで深くInstituteに関わっていましたからその重要性はよく理解できますが、結局 ResearchやDevelopment が頑張らないとモノは出来ない。ResearchやDevelopmentがひっそくし、Institute的なものが隆盛を誇る今の日本ITの現状に強い危機感をいだきます。海の向こうはバランスが取れています。
この議論には、フロント系の技術者、サポートやサービスのグループの立ち位置も重要になります。
今の日本ITには先ずIT業界のルネサンスが必須
繰り返しになりますが、今の日本ITの技術者の視界はシステム開発論に覆い尽くされ過ぎています。
本当はバランスの問題なのですが、あまりにも力関係が偏ってしまっているので、つい強い口調になってしまいますが、大きな反発を覚悟で敢えて述べます。ルネサンスが必要ですし、起こるでしょう。
技術者の力関係が偏る背景には、当然ビジネスモデルが深く関わっているわけですから、ビジネスモデルには、もっと大きなルネサンスが必須です。
蛇足になりますが、ここで言うルネサンスとはITのプラットフォーム回帰を意味しています。
もっと革新的なプラットフォーム創造にチャレンジしようという事です。それがITの基礎体力である。
そして、IT技術の革新をもとに、先進のエンタープライズ・システムを作り上げようということです。
人工(にんく)中心の労働集約的中世暗黒教条主義からの脱皮です。
クラウド・コンピューティングの技術とビジネスモデルが、そのきっかけになるのでしょう。
クラウド・プラットフォーム上に展開するクラウド・サービス群がこれからの百花繚乱のビジネスモデルの基礎になると思われますが、このクラウド・サービスの多くが工場出荷のサービスになるでしょう。
日本のモノ作りの強みをこのクラウド・サービスのNFR実装などに注ぎ込めば、世界制覇も決して夢ではないと思います。
その時のIT術者の勢力図はどのようなものになっているのでしょうか。研究者は.開発者は.サービスは.
それにしても、小生の想いは届くのでしょうか。。。
このサイトの”ラマンチャ通信”の命名の由来は、勿論、ラ・マンチャの男からとっています。
映画では、ドン・キホーテの原作者、セルバンテスが宗教裁判にかけられに行くシーンで終わります。
My Questも、そんな結末を迎えるのでしょうか。
時間があれば、ホメオトシスのスレッドの"The Impossible Dream" を訪れてください。
YouTubeがいいです。特にホンダのコマーシャルは秀逸です。
↑ |
クラウド時代を牽引するマイクロプロセッサーの動向
2009年10月07日 記述
クラウド・コンピューティングが単なるバズワードなのかどうかの議論は少し終息の方向にあるようです。しかし、小生などが重要視するプライベート・クラウドの是非については未だに収束する気配がありません。という事で、今、クラウドを構成するマイクロプロセッサーの行方を論ずる事などは、議論の火に油を注ぐとても乱暴な行為かもしれません。しかしクラウドがプラットフォームの明日のイメージであるとすれば、その重要な構成要素であるプロセッサー回りの考察はIT風景としては大変重要です。
見えてきた2010年のマイクロプロセッサー
Hot Chips 21やIDF 2009 (Intel Developer Forum)での各社の技術発表などを通じて、2010年のマイクロプロセッサーの大まかな技術情報が出そろったように見えます。ただしIBMのz
processorの発表は伝統的に製品発表までベールを脱ぐ事はないでしょうから巷の噂などをベースに類推するしかありません。
さて、2010年以降にplayしているサーバー・マイクロプロセッサーはどのようなものがあるのでしょうか。
Intel Nehalem(x86, 8 core, 2 thread), Tukwila(Itanium, 4 core, 2 thread),
AMD Magny-Cours(x86, 6+6 core), SUN Rainbow Falls(SPARC, 16 core, 8 thread),
IBM POWER7(Power, 8 core, 4 thread), IBM Gryphon(z), Fujitsu Venus(SPARC,
8core, 2 thread) などが競い合っているのでしょうか。
汎用マイクロプロセッサーが主流
2007年に、IBM POWER6の発表に先立って、マスコミの方々に、”IBMがとんでもない事を考えている”、で報道されたような過激な技術動向メッセージを発信したことがあります。Hot Chips 21のPOWER7の構造と随分違う話ではないかと思われる方もおられるかもしれませんが、伝えたかった内容は今回のPOWER7の特徴と同じものです。要はWeb処理で顕在化していた大量の小さいスレッド処理と、従来からのデータ中心の重い処理をいかに低消費電力でエネルギー効率良く、バランス良く処理できるかの論点です。
POWER6発表の直前にIBMは、毎年恒例のGTO 2007 (General Technology Outlook) を発信し、MMT(Massive
Multi-Threading, 大量軽量スレッド処理)対応のマイクロプロセッサーが主流になることを強調していました。これに先立って、SUNがNiagaraプロセッサーで、CMT(Chip
level Multi-Threading)を高らかに謳い、非常にシンプルな構造のマイクロ・プロセッサーでこの大量スレッド処理要件で先陣をきっていました。IBM自身もこれに対抗するチップを準備していたようですが、結果的にこのスタイルのプロセッサーは成功することが出来ませんでした。単純で軽量のプロセッサーをチップ内に多数並べて、大量の軽量スレッドをエネルギー効率良く処理することには大変優れていることが実証されたのですが、一つ一つのプロセッサー処理が遅いために、排他制御がからむ逐次処理やデータ中心処理に向いていなかったのです。特にJavaは想定外に逐次処理が多かったために性能が出ず、また低速x平行=大量メモリーの常識がネックとなりました。
逆に一つのプロセッサー性能向上をターゲットにした、1990年台初頭のRISCに続くアーキテクチャであるVLIW(Very Long Instruction
Word)スタイルのIntel Itaniumも、コンパイラー過度依存による失敗と、大量軽量スレッド処理に適応できず、成功することができませんでした。
Hot Chips 21によると、POWER7では2,4,8 というコアの活性化・非活性化と、コア当りのマルチ・スレッド数1,2,4 wayの活性化・非活性化などで、この排反事象の動的な性能バランスをとるように見えます。
最も、それが完全に動的に出来るわけではないでしょうがプロビジョニング等は楽になるでしょう。
結局、現在はx86系やPOWER6などの伝統的な汎用プロセッサーが主流だという事に落ち着いているのですが、クラウドの時代ではどうなるのでしょうか。
クラウド・プラットフォームでは、不特定大量のプロセッサー資源をエラスティック(柔軟)にプロビジョニング(配置)して効率よく資源活用することが最大の効果になるわけですから、配置に対して出来るだけ均質な、プロセッサーの汎用性で受けることが必須の条件になります。
さらにプロビジョニングを容易にするためにIBMなどは、z processor, POWER, x86系の其々の汎用マイクロプロセッサーから構成される異種のサーバー製品を、アンサンブルという同質のサーバ群に別々にグループ化してクラウドを構成することを考えているようです。
マルチコア、マルチスレッドは当たり前.重要なのはデータ一貫性のスケーラビリティ
クラウドの命は何と言ってもスケーラビリティにあります。そして同じくらい重要なのが信頼性です。
スケールをひねり出す方法として、従来からスケールアップとスケールアウトの言葉がよく知られています。スケールアップとは本来大きな単体プロセッサーで処理能力を上げていくことを、スケールアウトとは比較的小さなプロセッサーを大量に並べて処理能力を上げていく方法をいいました。現在では単体サーバー内(OSが一つ)でプロセッサーを追加する方法(SMP)をスケールアップ、クラスターのようなボックスを超えた複数OSでの連結・追加でスケールを増やしていく方法をスケールアウトと呼びます。ところが昨今のマルチコア化の進展によってこの区別が曖昧になってきています。スケールアップ・サーバーの代表と目されるIBM
z10 processorのチップは4コアのチップ・スケールアウト構成です。逆にスケールアウト・プロセッサーのリーダーと目されるx86系 Intel
Nehalem-EXは8コア構成で、足回りの能力も含めて同じIntelのTukwila (Itanium, 4コア)よりもチップとしてのスケールが大きい。ということで、プロセッサー技術の構成全てが、基本的にはマルチコア、マルチスレッドのスケールアウト構成になっています。また、スケールアップとスケールアウトの便宜的な呼称は、プロセッサー間の接続技術の独自性や密度で区別してきたわけですが、全てのレベルのプロセッサー技術でマルチコア、マルチスレッド化が進むにつれ、これも程度の差になってきました。肝心のSWから見た意味合いも薄れてきています。
簡単にいえば、全てのコンピュータが基本的にスケールアウト構成になったと考えていいでしょう。
さて、スケールアウト構成での最も重要な課題はデータの信頼性、一貫性、即ちConsistencyです。
プロセッサー・ベルの技術用語ではCoherenceです。
クラウドレベルのレイヤーの議論になると、CAP定理とかBASEだとかの主張の下、ACIDが出来ないならアプリケーションで緩めてもいいじゃん、というようなWS-*(Web
Service astar)前夜の議論が当たり前のようになっていますが、ハードウェア・レベルではそれは絶対許されません。そんな事が簡単に許されるならSUNがROCKチップに失敗してギブアップする苦渋など無いわけです。CAP定理の逆、すなわち
Consistency, Availability, Partitionsは全て満足した上でスケールアウト環境での高性能を出さなければならない。それがコンピュータ本来の、HWの基本です。SWとHWの話をゴチャゴチャに論じているように見えるかもしれませんが、ROCKが火を点けたTransactional
Memoryの技術はその風景にあります。
さて、Hot Chips 21でクレームされているPOWER7のこの面での潜在能力、アプローチは中々凄いと思います。確かに Intel Nehalem-EXのQPIによる大幅な性能向上は驚愕です。しかしそれを超えて、POWER7で主張されているPOWER6に対する有効Compute
Throughput 5倍(1.6TB/s)のメッセージは大きい。これはフィールド・アップグレード等の面で、POWER7がPOWER6の足回りを基本的に受け継いだ以上物理的なチップI/Fの性能向上だけでは達成されないターゲットを、eDRAMのオンチップ搭載も含めた数々の技術革新によってクリアしようとしている点でIBMらしい味が感じられます。
POWER4でデータ一貫性制御のプロトコルが7状態であったのに対し、POWER7では13状態のきめ細かさまで拡張されているのが象徴的です。一般的にはMOESIなどの4~5状態のプロトコルが常識であることを勘案すると、POWER7のSMPマルチ・ソケットのスケーラビリティの潜在能力は、Nehalem-EXの一桁近い上の性能を秘めているようにも見えます。10
peta flopsのスパコンのプロセッサーですから当然ともいえますが。
Nehalem-EXやPOWER7などの新世代マイクロプロセッサーが、クラウド時代をどのように切り開いていくのか、特にプライベート・クラウド・プラットフォームの価格性能比がどの辺に落ち着くのか、など、大変興味深いものがあります。
↑ |
IBM POWER7とIntel Nehalem-EX に見る 2010年プロセッサー談合
2009年9月28日 記述
恒例のIDF 2009 (Intel Developer Forum)が9月22~24日開催されましたが、そこには例年Intelの技術動向を披露するIDF創立者、Sr.VPで元CTOの
Pat Gelsinger の姿はありませんでした。彼は直前の9月14日にIntelを去りEMCに移る人事が発表されていました。Intelの将来のCEO候補に、またIntelそのものに何が起こっているのでしょうか。
9月15日、OracleのLarry EllisonがSun買収を表明後始めて積極的な言葉を発したのがIBMへの挑戦状です。10月14日のOracle
Worldで、IBMに先ず一発喰らわせてやると。
これと前後した9月16日のHot Chips 21で、IBMは満を持したIBM POWER7の技術説明をおこなっています。小生は日本IBM現役時代、IBM
POWER6の発表に先立って、マスコミの方々に、”IBMがとんでもない事を考えている”、で報道されたような過激な技術動向メッセージを発信したことがあります。
あれは何だったのか。ここではフリーの立場で自由で無責任な妄想、酔夢に耽ることにします。
IDF 2009に見えるIT業界視界の変化
小生は以前から2010年のサーバー・プロセッサー決戦を予測してきましたが、その幕が挙げられようとしている今、決戦よりも談合のような景色が見えてきました。それはIT業界の”ブルー・オーシャン戦略”とも受け取れる、未来志向の明るい視界の拡がりでもあります。(それを談合と呼ぶのか!)
繰り返しになりますが、小生は永らく2010年をサーバー・プロセッサー決戦の年と捉えていました。 それは、IT業界の色合いを決する熾烈なプロセッサー戦争で、”レッド・オーシャン戦略”そのものの世界です。 しかし推移はどうもそうでは無さそうに思えてきました。
春秋戦国と永く続いた激しい競争と覇権争いの結果、このIT業界は蹉跌の連続の末の、底なしの疲弊感に覆われています。前IBM CEO、GerstnerがIT業界に入って最初に受けた大きなショックが、この業界の消耗戦に近い殴り合いだったようです。 そんなIT業界が変われるのでしょうか?
小生には変わろうとしているように見えます。(小生が変わったのかもしれません)
そのきっかけはやはりGoogleの登場でしょう。 Googleの発信するメッセージの大義とその成功が業界に大きなショックを与えたのは確かです。そして本質に目覚めさせた。
強い厭戦感と疲れ果てて帽子の台状態になっていたコンピュータ屋の頭脳に強い光がさした。
Googleの登壇は、この業界の過去の覇権争いとは何かが違うように見えます。健全な印象です。
それはMicrosoftのBill Gatesや、SUNのScott McNealyという IT妖怪が去った故もあるのでしょうか。
しかし勿論、このような大義だけでIT業界の視界が急に変わる筈もありません。
Googleが持ち込んだクラウド・コンピューティングの衝撃が、IT業界に改めてブルー・オーシャン戦略の眼を開かせたのだと思います。
IDF 2009に見るIntelの変心
IDF 2009で見せたIntelの姿は一回り大きくなった印象です。Mooreの法則を謳い、半導体プロセスへの自信あるコミットメントは、本来のIntelのテクノロジー・カンパニーの王者としての健全さを取り戻したようにも見えます。 微細加工技術を一方のメーン・エンジンとし、もう一方のメーン・エンジンをx86
ISA(Instruction Set Architecture)に置いて、ユビキタスなプロセッサーからサーバーまでを、技術革新の旦那として強力に支援していくというスタンスは、改めてIT業界の一方の盟主としての風格を意識しているようにも見えます。
ここ数年のIntelのドタバタは醜いものでした。Intelらしくなかった。魔物がついていたようでした。
結果として一時20%ものx86系シェアをAMDに許してしまっていた。未だEUで裁判も進行中です。
2004年のPrescott発表時点での、発熱問題発覚での商品ドタキャンの醜態。
ドタバタ劇の中での有名な”Right Hand Turn”声明を伴うGHz 競争リーダーシップ離脱によるマルチコア化への右ターン。 それをバックアップした傍流のイスラエルのハイファ・ラボのコア技術への全面的な依存。
x86系の64ビットアーキテクチャ導入にぎりぎりまで抵抗しながら、AMD先行に対する屈辱的な追従。業界があきれ果てたItaniumの度重なる延期と性能のディコミットメント。そして何よりも恥じるべきなのは
ISA(Itanium Solutions Alliance)のWhite Paperで展開した数々の詭弁です。無茶苦茶だった。
余談ですが、当時これらの不純さに猛烈に腹が立ち、日本IBMで告発していた小生は、自身の論議の品格を落とし、人格を疑われる破目に陥り、バカな時間を過ごしたと悔んでいます。(元々変人?)
Intelの社内事情に全く疎い小生ですが、この期間の技術総リーダーが Pat Gelsinger ではなかったかと思います。
Intelは変わったように見えます。落ち着きを取り戻したようです。 ここ数年の乱世を、猛烈な技術の底力を発揮して競争者のAMDをねじ伏せて”レッド・オーシャン戦略”状態を脱したのが大きいのでしょうか。QPIというインターフェース大改革で、On
Chipでのメモリー・コントローラやプロセッサー・コア結合を果たし、永年のAMDへの技術コンプレックスも全面的に解消しました。回路設計も伴ったHigh-k
Metal Gateによる漏れ電流の制御に成功し、32nm,22nm への微細加工プロセスの目途を付けたのも大変大きいのでしょう。
しかし何といっても一番大きくIntelを変えたのはGoogleの登場でしょう。クラウド・コンピューティングの
ブルー・オーシャンの登場です。IBMと死闘を繰り広げて企業システムへの浸食を図る必要がなくなった。Googleの巨大なデータセンター群は既に100万台以上のx86ベースのサーバーを所有し、さらにAmazon,
Microsoftなども巻き込んで将来にわたって企業システムを飲み込み続ける流れが出て来た。
1990年代後半、Bill Gatesの野望に呼応して、IntelもIBMなどが持つ企業システムの覇権奪取を遠謀し、HPのVLIWプロセッサー構想(Itanium)に乗り、この10年間酷い目にあいました。しかしもうそれに雲泥する必要も無くなったようです。HPは自社のPA-RISCやAlphaチップのサーバーのItaniumへの移行をほぼ終え、初期の目的は果たしたようです。逃げ切ったというところでしょうか。一般的なItaniumのOEMユーザーに対してはx86とのシステム・ネスト系互換をほぼ達成し、Intelにすれば、やることはやったというところでしょう。とにかく色んな拘りの決着はついたように見えます。
一方で、IDF 2009でのx86系サーバーの新世代プロセッサーNehalem-EXの最初のデモ機として、IBMのBlade Center-EXが登場したことも興味深いシーンだと思います。
IBMは一体なにを考えているのでしょうか。
引き続き、小生の勝手な妄想のもと、以下のようなテーマで後日、酔論を展開したいと思っています。
↑ |
民主党新政権誕生に思う事. IT "チェンジ&レジリエンス" 準備の緊急性
2009年9月04日 記述
小生はこのサイトで政治に関して述べることは自制しています。ということで、ここで述べることは政治的な意見ではなく、あくまでITの案件です。
今回の民主党新政権誕生に思う事が2つあります。一つ目は大きなチェンジが現実に起こりうること。そしてもう一つは私たちが主張してきたITのチェンジ&レジリエンスへの準備が緊急性を帯びてきたという認識です。
6月11日付けeCloud研究会レポートのスレッドで日本IBM菅原DEが投稿されていますように、小生等は日本企業ITシステムのグローバル化戦略の鍵として、”企業システムの変革 - チェンジとレジリエンス”、を最大のテーマとしてきました。そしてそれを実現するための技術素材として、プライベート・クラウドや仮想化、ソフトウェア・アプライアンスの方法を追及しています。
チェンジと安定は、ともに重要なテーマですが、残念ながら現実には両立が難しくトレードオフ的なバランスの上にあるといえます。菅原DEのレポートにもありますように、小生らは日本ITの強みが強い安定志向にあり、逆にそれ故にチェンジが大変困難になっていると考えています。そこで小生等はチェンジを優先課題とし、その上で速やかに安定化を図るITの仕組み作りに挑戦しています。
それが”チェンジ&レジリエンス”のスローガンです。
レジリエンスという言葉は、災害などのバッド・チェンジに対するシステム復旧の方法として以前からITではよく知られた概念ですが、小生たちは企業の変化への挑戦をグッド・チェンジとして捉え、M&Aなどでキーとなるシステム統合でのシステム安定化対策などをレジリエンスのアーキテクチャやフレームワークとして積極的に準備する事を提唱しています。
今回の民主党新政権誕生は日本国民としてグッド・チェンジとして成功させる大局観は当然ですが、
チェンジに伴う不安定化を乗り越えるチェンジ&レジリエンスの叡智が必須だともいえるでしょう。
今回の大きなチェンジに付随して、企業ITのチェンジも連鎖すると考えられます。
チェンジ&レジリエンスのアーキテクチャ/フレームワーク作りは緊急性を帯びてきたと強く意識します。
↑ |
IT加工貿易による通商国家戦略の提言
2009年7月28日 記述
”NECの国家スパコン・プロジェクトからの撤退について” で、いつまでも自前のプロセッサー開発に拘泥する文科省の政策に疑問を呈しましたが、NEC/日立が撤退した後も、富士通1社によるスカラー型スパコン開発の続行が決まったようです。小生には、このプロジェクトで世界に冠たる日本技術力のブランド戦略が成功するとは到底思えないのですが、ま、決まった以上は、関係各位の努力に期待したいと思います。それなりの付帯効果も期待したいと思います。
さて、小生のここでの主張は、”IT加工貿易”の提言です。ITの世界観ではマイクロプロセッサーなどは資源・素材にあたります。それを輸入・入手して、企業システム、社会システムとして先進のイノベーションを開発する。そこに付加価値を見出す。使っているITコンポーネントはいわば石油資源だと思えばいい。企業で先進のシステムを作り、その企業がそのITシステム技術でグローバルで勝てる商品を作り世界に打って出る。簡単にいえば、マイクロプロセッサーを原料として輸入して企業システムという加工化により企業の戦略商品開発で付加価値をつけ、その企業商品を輸出する。それは金融商品でもいいですし、サービス的なものでもいい。ヘルスケアなども含めた社会システムやインフラはそれらをボトムから支え生産性をあげるための重要な仕組みである。またその先進システムを創造するためには、IT要素技術も必要になるので、それはどんどん開発してアセット化する。優れたものはITコンポーネントとして世界に通用するものが出来る可能性も高い。さらには当該の先進イステムそのものも輸出すればいい。しかし先ず掲げるべき旗は、リーディング・ビジョンは”国内での良いシステム、先進システムの創造・構築”に置く。 ここに知の加工の付加価値を置く。
7月20日付の日経新聞の経済教室のコラムで、九州大学教授、日本経済研究センター主任研究員、篠崎彰彦さんが、「中期的な日本の経済成長 情報化投資の成否が左右」という論文を書いておられます。少子・高齢化を踏まえた日本経済成長の方策はIT投資強化によるGDP2%以上の達成にあると。IT投資がGDP成長に一番効率的なんだと。
くだんのマイクロ・プロセッサーだけにかかわらず、昨今のITコンポーネントの技術革新は目覚ましく、またそれ以上にグローバル市場での攻めぎあいが激烈です。米国流マーケットの最終決定者はコンシューマなので、コモディティ化が必然と言えば必然の流れなのでしょう。ここでの勝負を諦めろと言う気はありませんが、半導体事業を始め、パソコン・メーカーやサーバー・メーカーの血を吐くような低利益率の泥沼から這い出す方策は困難を極めています。また、IBMのガースナー前CEOが新しい金鉱脈を発見したんだと自画自賛していた”サービス事業”も、スマイル・ラインと呼ばれたこのビジネスの金鉱脈も、ITエンジニアを金鉱堀の労働者のような労働集約状態に落とし込んだままで、オフショアという世界的な労働のコモディティ化に抗する術も見当たらないようです。
一方で、昨今のクラウド・コンピューティングの騒ぎにも見られるように、ITの世界観はコンポーネントを駆使しながらも、上へ上へと(雲の上へと)這い上っています。クラウドのサービス・モデルでは労働集約のイメージはありません。何故でしょうか?
小生は、IT技術の真髄は良いシステム、先進システムの創造にあると信じています。40年間SEとして拘ってきました。日本のユーザー企業が、先進システム構築への飽くなき挑戦を続ける事が、そしてIT業界全体がその努力に結集して”知の滅私奉公”に奮戦することこそが、本来の意味の”坂の上の雲を掴む”ことにつながるのでしょう。 見果てぬ夢にはしたくありません。
↑ |
SUN凋落から何を学ぶべきか
2009年7月15日 記述
ORACLEがSUNの買収騒動に決着をつけてから既に2カ月以上が経過しました。その後、さしたるニュースも報道されず、IT業界は金融恐慌の余波に苦しみ、このニュースも夏の暑さの中に埋没してしまった感があります。夏といえば小生は入道雲を先ず思い描きます。淡路の砂浜の遥かな水平線に浮かぶ力強い入道雲は陰りの無い明日への象徴でした。小生が思い浮かぶクラウドのイメージはそのような明日の晴天の確かなシグナルです。SUNがそのような輝ける未来への太陽のイメージで活躍していたのもそんなに遠い昔話ではありません。浮沈の激しいIT業界の出来事として、盛者必衰の理などという哀歓は少しも湧きませんが、しかしその浮沈の背景を論考しておくのも重要です。他のITベンダーにとっても自社がいつ同じ運命に陥るかもしれない波乱万丈の時代に入ったようですし、ユーザー企業のIT戦略担当者の目利きの責任も相当厳しいものが要求されてきています。ところが、このチャンスに、永くSUNに関して抱いていた詰問を吐露したいとの思いで書き始めた筆が進みません。LinuxやJavaのオープン化でSUNを追いこんだIBM側にいた人間として、自分自身が何を躊躇して筆を折っているのか自分でも良くわからなかったのですが、次のForbsの記事に突き当たってなんとなく解ったように思います。小生の深層心理ではSUNにかなりの共感を覚えていたのだと、改めて理解しました。
くだんのForbsの記事は “Sun's Six Biggest Mistakes, 04/07/2009”で、次の6ポイントを指摘しています。
① Fixating On The High End
② Embracing Commodity Hardware Too Late
③ Too Few Layoffs, Too Often
④ Missing The Web 2.0 Wave
⑤ Overpaying For Acquisitions
⑥ Keeping Its Hardware Business
さらに次のような経営陣に対する厳しい罵りが副題で付いています。
“The company's high-end, high-margin business wasn't run by stupid people.
They just acted that way.”
“コモディティには与しない. 独自の技術で頑張るのだ. サーバーで成功し、ネットワーク技術で新時代を切り開くのだ!”というSUNの主張は、実は100%、小生、自称ドン・キホーテの見果てぬ夢に一致するわけです。“安易にリストラなんかしない. 何といわれようと技術開発のための投資は惜しまないのだ!”というMcNealyの絶叫は、実は小生の絶叫でもある。それを“時代錯誤のバカ連中”なんて、とても言えやしない。でも、そんなSUNは負けてしまった。そしてファイナンスに強いアナリストに大バカだ、と言われている。優れた技術も高い志しも、所詮コモディティ化の流れにはには勝てないのだろうか?
小生は大きく次の4点でSUN失墜の原因・遠因を書こうと考えていました。
1)Scott McNealyの暴走
2)Linux, Javaなどのオープン化時代への誤った対応と幹部の内部亀裂
3)ハイエンド・サーバー信頼性の躓きによる企業基幹系システムでのリーダーシップの喪失
4)SPARCプロセッサー開発の大幅な遅れとマッシブ・スレッド・プロセッサー革命の不発
Scott McNealyの暴走、オープン化への抵抗、コミュニティの全てを敵に
それにしてもScott McNealyの暴走がSUNの凋落の背中を押したようです。彼が学生以来の生粋のゴルフ狂で、USGA公式ハンディ3.3の米企業CEO番付1位(2000年)を奢り、日本のBPやお客様を前に壇上からゴルフ・ボールを打ち放したという逸話を聞くに及んで小生のイメージは固まっていました。SUNにとって2002年が企業戦略の徹底的な分岐点だったと思われますが、その年でのMcNealyの行動は異常でした。Merrill Lynch のSteve Milunovichが ”Don't Give Up on Sun”なるレポートを記し、McNealyに対してSUN復活のためのサジェスションを送ったのですがMcNealyの反応は徹底的な罵倒だったようです。同じころZDNetのexecutive editorだったDavid Berlindが彼のコラム、REALITY CHECK、でIBMのSUNへの一連のオープン攻勢を以下のような記事にしていました。
Eclipse of the Sun
内容は、「自分(David Berlind)が2002年の年初にIBMのSoftware Group総帥のSteve Millsに何時SUNを買収するのかと聞いたところ買収など考えていないとの返事だった。その時には良く理解出来なかったけれど、2002/4のJCP(Java Community Process)の役員人事を見て理解できた。実はオープンソース戦略がSUNに対するIBMの破壊的な爆弾だったのだ。。」というものでした。その数カ月後にSUN COO & President, Ed ZanderがSUNを去るにあたり、David Berlindがまたコラムで噛みついたのでMcNealyとの間で大喧嘩になり、小生の理解ではDavidがあろうことかZDNetを首になったはずです。McNealyは社外の有力なITウオッチャーの多くを敵に回してしまった。
Ed ZanderはSUN 15周年の1997年初頭からSUNのハードウェア部門のリーダーとして一介のWorkstationベンダーだったSUNを一躍UNIXサーバーのNo.1まで急成長させた功労者だったわけですが、McNealyと言い争い、SUNを去りました。同時にLehman (CFO), Shoemaker (HW division), Hambly (Services), DeWitt (steward of Sun's Linux strategy)が退任。IBMからスカウトしていたPat SueltzがSoftwareから外れ、Jonathan Schwartzが担当になりました。彼らの退社の理由が、McNealyとは直接もう話したくないということだったそうで、この辺りの異常さが類推できます。
一方で、2002年の同じころに日本を訪れていたSUNのJohn Gageが次のようなインタビュー記事を残しています。(日刊工業新聞4/03/2002)
Q: 「ウエブサーバーフリーソフトの開発コミュニティ「アパッチ」の仕様がJavaの標準プロセス「JCP」として受け入れられるなど、オープンソース路線がより鮮明となっています。」
A: 「Javaの扱いを、専任の弁護士に相談したところ、タダで業界に提供すると「競争相手に使われてしまうぞ」と忠告を受けた。しかしビル・ジョイはそうは考えなかった。「新しい技術は若い学生らが生み出すのだ」と主張し、オープンソース化を決断した。アパッチとJCPとの連携もこうした流れの中でとらえることができる。個人的には5年程度、遅かったという印象だ。」
John Gageはバークレー出身で、UNIXのカリスマBill Joyの先生役と言われていた人物ですが、案の定、翌年の9月にBill JoyがSUNを去ってしまいました。SUNの信用と人気がBill Joyによるところが大変大きかったわけですから、彼が去るに及んでこのコミュニティも一斉にSUNを見捨ててしまったわけです。
ハイエンド・サーバー信頼性の躓き
では何故McNealyがこんなに暴走したのでしょうか? 彼が元々エキセントリックな性格だったのでしょうが、しかしそれだけでは説明できない異常さを感じます。小生は勝手に次のように解釈しています。技術を信頼し、技術に賭ける期待が人一倍に大きい(技術者ではない)CEOにとって、これからというタイミングで、当時のSUNが犯した技術上の失態はとても許せるものではなかったのでしょう。1997年からのSUNの猛烈な成長とITインダストリーでのリーダーシップの位置は、その当時出荷が開始された大型UNIX SMPサーバーによるところが大きかったわけです。それが途中で躓いた。ダウンサイジングが愈々本格化し、IBM水冷メーンフレムが新しいプラットフォームを求めて動きはじめた時点でSUNはジャストタイミングのメーンフレーム・オルタナティブを市場投入できていた。これは特にハイエンドのSUN UE10000 (UE:Ultra Enterprise)というスケーラブル・サーバーのフラッグシップが大きく効いていました。以前スパコンのところで述べましたように、IBMはスーパースカラーのPOWERプロセッサーとそのクラスター型のSP(並列スケーラブル)構成がHPC(High Performance Computing)として成功していたわけですが、それが皮肉にも、UNIXによるコマーシャル市場でのSUNとHPの単体サーバー型の先行を許すことの原因にもなりました。実は当時、IBMの成功に対抗するためにSUNとHPが其々当時のスパコン・メーカー、CrayとConvexから大型クロスバー・スイッチの技術を手に入れていました。これで組み上げたSMP(Symmetric Multi-Processor)がコマーシャル処理での大型UNIXサーバーとして大成功しました。多くのユーザーで基幹系サーバーとして活用されましたが、ところがこれからという時にSUNは信頼性の面で大きなトラブルに見舞われてしまったのです。
Hardware Reliability Problems With Sun UE Servers, Gartner, 11/16/1998
GartnerGroup continues to receive reports from clients about hardware quality
problems with Sun UE servers. …. Bottom Line, Enterprises should consider
Sun UE servers only for Applications requiring less than 98 percent system-level
availability.
このガートナー・レポートから推測すると、これはチョンボに近い技術の大失態のように見えます。このトラブル対応のために、その後のSUNのUltraSPARCプロセッサー開発のスケジュールが約一世代づつ遅れてしまったように見えます。また基幹系システムにおけるSUNの信用は失墜してしまったと思われます。2002年前後にやっと出荷が始まった後継のSun Fire 12K/15Kは時既に遅く、市場での勢いはもう殆んどなくしてしまっていました。結局、それを指揮したEd ZanderをMcNealyは許せなかったのだと思います。SPARC/Solarisのコンボに乗せたソフトウェアやサービス事業も肝心のサーバーが失速したために戦略的に中途半端なものにならざるをえませんでした。
外部技術への依存とマッシブ・スレッド・プロセッサー革命の不発
McNealyの苛立ちは、それまでの社内の技術陣を放り出して、新たな技術へのチャレンジに彼を追い立てたように見えます。SUNはITウオッチャーの批判をしり目に、猛烈な勢いで外部技術の導入、買収に走りだします。その多くは、どう考えても虎の子の現金を投入するに値しない技術や企業が多くありました。データセンター論に未来を見たSUNは、統合システム・ベンダーへの道を遮二無二走りだしたように見えます。皮肉なことに、クラウド時代を前にしてOracleがSUNを買収した動機にも似ているように思います。これらの技術の中で、SUNが最も将来を託そうとした技術がありました。それがCMT(Chip level Multi-Threading)です。クラウド時代のデータセンターの要になりうるスレッド・コンピューティングの基礎です。これがあれば、IntelのItaniumを真っ先に屠り、Intel
x86もIBMも打倒することができそうに思えたのでしょう。この技術もベンチャーの買収によって手に入れました。Bill Joyのバークレーではなく、McNealyの母校、スタンフォードのベンチャーAfara Websystemsです。これも2002年7月のイベントです。SUNはこの技術に未来を託し、市場投入できるまでの期間と資金計画をAMD Opteronと富士通のAPLで埋めようとしました。AMD Opteronではx86-64bitの最初のシステム・スポンサーになることにより、歴史的にも大きな役割を果たしました。(この辺りの経過はまた別に論議したいと思います)。SUNの、McNealyの賭けは成功しかけたように見えました。Niagaraのコード名でマイクロプロセッサー技術者の注目を浴びていたチップがSUN
T1/T2として出荷出来たわけです。おりしも、プロセッサーの熱効率が技術の最大の論点に極まったタイミングでSUNは市場投入できました。ところが好事魔多しです。この粒粒処理の軽量スレッド中心のアーキテクチャはJavaとの相性が最悪であることが判明します。大量の小さな平行処理向きのアーキテクチャをJavaのハッシングやガベージ・コレクションの重い逐次処理が台無しにしてしまったのです。SUNのJavaがSUNの希望を無残にも消し去ってしまいました。このチップはLow endにしか使えなかったのです。SUNの課題として、各事業部の開発者の縦割り・サイロ化が問題視されていましたが、それが露呈してしまったわけです。このサイロを作ったのはEd Zanderの時代だとも言われています。もっとも、SUNには解っていたのかもしれません。大本命としてロック・フリーの過激なTransactional MemoryアーキテクチャのRockの開発にやはり全てを賭けていました。しかしこれは全くマーケットには出てこないように見えます。また、このスレッド・コンピューティング・チップでのソフトウェアの値付けでMcNealyはOracleのLarry Ellisonに酷い目にあわされてもいます。チップあたりの値付けがこのアーキテクチャにそぐわない高額を付けられてしまいました。
SUNのケースから何を学ぶべきか
今回、もう一度改めてSUNの苦闘を振り返ることによって、それまでのMcNealyに対する小生の評価もかなり変化しました。ファイナンス系のCEOの技術への拘りで、ほぼSUNという会社を潰してしまったわけです。そんなMcNealyに、ある意味尊敬心さえも芽生え始めている自分に呆れてもいます。また、コモディティ化に対するビジネスの挑戦で敗れたSUNのケース、McNealyのリーダーシップは、小生にも多くの示唆を与えてくれました。McNealyはコモディティ化の流れに負けたのではないと確信しました。彼には適切な技術系の強いパートナーが必要だったのだと思います。それがBill Joyでなかったところに、小生には解らない彼らの関係があったのでしょう。何故 技術系リーダーとのコ・ワークが必要かというと、失敗の原因を見れば明らかです。ハイエンド・サーバーでの信頼性の問題も、NiagaraとJavaとの関係も、Holistic
Design、すなわち統合設計がなされていなかったのが原因だと考えられます。技術者を束ねる強力なリーダーの存在が必須なのです。
Forbsの指摘したSUN失敗原因の6つのポイントは、例えばIBMに当てはめるとどうなるのでしょうか。元IBM CEO Lou Gerstnerの成功、そして現在までのSam Palmisanoの成功の裏には、Nick
DonofrioというIBM No.2の技術リーダーの存在があったことは間違いありません。昨年、終に彼はIBMを去りましたが、彼の不在が今後のIBMにどのような影響を及ぼすのでしょうか。既にその兆候が顕在化しつつあるようにも見えます。
もうひとつ重要なポイントとして、技術の多様な進化と戦略的フォーカスの的外しを担保するボトムアップな競争による技術のレジリエンス能力があげられます。発熱で行き詰ったPentium系マイクロプロセッサー頓挫によるIntelの危機はIntelのハイファの開発部門が救いました。IBMの水冷メーンフレーム機の総崩れを救ったのも、独逸ボーブリンゲン・ラボのCMOSプロセッサーでした。
SUNにはスター・プレーヤーが多かった割にはこのような技術層の厚みが無かったように思われます。
↑ |
IBM・富士通著作権紛争の著作・記事などのスタンスに対する危惧
2009年7月13日 記述
本日の日経新聞の朝刊に、野副富士通社長のインタビュー記事がありました。野副さんの課長時代のエピソードを巡る記事の最初になるようですが、やはりIBM・富士通著作権紛争での秘密交渉の背景が書かれていました。一方で、野副さんの当時の上司の鳴戸さんが、”雲を掴め”という小説の体を借りた秘密交渉のあらましの著作が既にあります。
これらの著作・記事を見て小生が強く危惧するのは、本質を外した議論の危うさです。
あの紛争の大きな部分、特に第2ラウンドなどは交渉事が全ての顛末なのでしょうが、紛争の本質はやはり技術の真贋論争であり、マーケットという現場での覇権の方法論にあるのでしょう。決して紛争処理の交渉術がメーン・テーマではないはずです。この点を事例としてしっかりと捕まえておかないと、これからのグローバル戦略においても2度3度の同じ轍を踏むことになりかねないと思います。小説で鳴戸さんが、”何故なのだろう?”と最後まで疑問が解けなかったのもこのあたりの風景が視界になかったのではと思います。海外だけを見た、OSなどの製品だけを見た紛争処理のプロセスだけでは計り知れないものですね。それは、やはり日本のマーケットにおける”システム屋”としての真贋論だと思います。ユーザー・システムを世界での最先端に持っていくのが、当時も今も、システム技術者の夢であり作品である(あるべき?)わけですが、互換機路線はそれらの価値観を安易に破壊してしまった。そこに傷口ができた。一方で、この不幸な紛争で、IBMも富士通同様、大きく傷ついてしまった。弁護士集団中心の”紛争処理に備えよ”という価値観が経営の要を握ってしまったために、新しい技術の流れ、ダウンサイジング、にプロセス的に大きく遅れてしまいIT首座を滑り落ちてしまったのだと、小生は考えています。
これからの日本ITのグローバル戦略の要は、世界ぶっちぎりの日本のユーザー・システムを創作すること。勿論インフラも含めてです。この価値観・筋が、IT加工貿易の出発点だと思います。その視座、積層を忘れた安易なグローバル戦略があるとすれば、小生は大きな危うさを感じます。
↑ |
ベクター型からスカラー型へのスパコン技術の推移
2009年6月12日 記述
この政府プロジェクトのリーダーは元NEC支配人の渡辺さんですが、昔、日本のクレイということで国際的なスパコン・コミュニティの賞をもらった方です。地球シミュレータの生みの親でしょう。スパコンを構成するアーキテクチャではベクター型かスカラー型かの論争が永く続いてきましたが、渡辺さんは知る人ぞ知るベクター型スパコンの世界の重鎮です。
渡辺さんとは1992年ごろ一緒にほんの少し間接的に仕事をさせていただきました。小生は当時の企業システムのダウンサイジング対抗に忙しくて最初のフレームワーク作りの部分でしか参画出来ませんでしたが、彼の作品のNEC
SX/3のVP(Vector Processor) 部分を、当時のIBM社のメーンフレーム機3090のバックエンドに使ったスパコンを日本IBMで作るプロジェクトに参画していました。ユーザー・インターフェースをメーンフレームのMVSで、バックエンドをUNIXで、という今ではとても考えられない仕様を描きあげたのは我々です。IBMがメーンフレーム技術計算能力を強化するために出荷していた3090-VF(Vector
Facility)の後継・強化版として設計しました。本家の米IBMとは言い争いになりましたが、当時の米IBMは一連のスパコン開発プロジェクトが失敗の連続で、日本IBMとしてはじっとしておれなかったのです。現日本IBM最高顧問の北城さんの肝いりで推進されました。マーケット本命の輸出は当時のCrayの政治力で頓挫してしまいましたが、本格的なNECとの協業でした。フレームワーク作りの段階で米IBMの連中が”査定”にやってきて、中止かどうかの技術論争をやりましたが、結構すんなりと勝負はつきました。SX/3のスペックが素晴らしかったのと、我々SEのデータ供給の設計がしっかりしていたし、Flops/Dataのアプリケーション領域も押さえていたからです。しかし本音のところは、当時の米IBMは既にベクター型に見切りをつけていて、RS/6000
SPによるMPP(Massive Parallel Processing)一本に舵を切ってしまっていましたから、バックアップの気持もあったのでしょう。結局このRS/6000
SPが成功して、Crayのベクター型の終わりが始まったのだと思います。Crayの政治力で日本のベクター型が米国で手に入らなかったのも大きかった。ちなみにRS/6000は商用の本格的なRISCプロセッサー、POWERの最初の作品で、Floating-Point演算に特に力を発揮したスーパー・スカラーの特許の塊でした。RS/6000単体の小さなワークステーションが当時のCrayに肉薄する性能を出していました。そしてこのSP
(Scalable Power 並列システム)の成功をベースにして後にIBM社の技術リーダーの一人になったIrving Wladawsky-Bergerが頭角を現すことになります。
このPOWERのSP(並列スケーラブル型HPC)としての成功が、皮肉にも、UNIXによるコマーシャル市場でのSUNとHPの単体サーバー型の先行を許すことになります。
1995年代以降の推移については別にまた述べたいと思います。
↑
|
FORTRANコンパイラー技術で日本のスパコンがCrayから王座をはく奪した
2009年6月11日 記述
昔々、Ken Kennedyというコンパイラーの巨人がいました。。IBMの受託研究員の経験もある彼のコンパイラー・オプティマイゼーションの発明に富士通、NEC、日立のコンパイラー専門家が集い、FORTRANのベクター型スパコンのオプティマイゼーションで大きな前進を果たしました。アセンブラー・コーディングに拘り続けたCrayの常識は瞬く間に消滅してしまいました。一方で日本の半導体技術の全盛時代の背景があったのは勿論です。IBM社内でもFORTRANコンパイラーに関する激しい競争がありました。
↑ |
NECの国家スパコン・プロジェクトからの撤退について
2009年6月10日 記述
このテーマは既に旬を過ぎつつありますが遅ればせながら参画したいと思います。
最近のサーバー動向は実に興味深いですね。SUN社の買収騒動が大きな話題になったと思ったら続いての大きなニュースでした。新しい時代への胎動が顕在化しつつあるということでしょう。ここではこの話題の2つのポイントと業界の歴史的な背景の伝承の意図も込めて少し論考したいと思います。大きな反発を受けないことを祈りながら、言いたいことを言わせてもらいます。
ポイントは、
・ 政府主導の新規技術開発から民間展開へという相変わらずのスキームへの疑問
・ クラウド化というコンピュータ主流の大変革時代での当プロジェクトの妥当性への疑問
です。
今何故大鑑巨砲主義的なプロセッサー開発なのか
グランドデザインと呼ばれる未来形技術への挑戦で、国家戦略としてヒト・モノ・カネを投入するスキームが必ずしも悪いとはいえないでしょう。ただ、そのテーマ性やタイミングの妥当性、そしてより重要なのは透明性を持った十分な議論を経た価値判断の国民的な共有の視点が必須だと思います。その意味では当プロジェクトは多くの方々が言及されているように全く不十分です。今回のNECの撤退もキツネに抓まれたような不可解さが残ります。そこでこのサイトを通じて勝手に議論に参加したいと思います。
少々大上段に構えすぎですが、”通商国家”という日本の根本的な国家指針の視点から、今回のプロジェクトの目的と方策の妥当性を吟味してみたいと思います。通商国家が商人国家だけでは無いのは心得ているつもりです。
言いたいことは要するに何故このプロジェクトにこんな大金を投入するのか?という疑問です。もっとも、昨今の金融恐慌の下でのお金の動きをみると、高々1000億円程度でガタガタ言うなとクレームされそうですが。でもNECがプロジェクトを断念した表向きの理由が開発費の負担ということですから、やはりお金が一番の論点なのでしょう。
疑問点は上手にお金を使っているのか?です。
日本のIT競争力が長く低迷するなか、クラウドが本格化する今日の時代背景の下で、大鑑巨砲主義的な巨大プロセッサー開発の意義を問いたいと思います。このプロジェクトの構想がぶちあげられた時点から、外資系企業に勤めているとはいえ税金を納入している国民の一人として甚だ疑問に思っていた点です。結果的に本命のNECが降りてしまったという事実は何を意味するのか。今何を決断すべきなのか。
スカラー型プロセッサー開発も疑問
先日、たまたま2チャネルのスレッドに誘導されて、富士通サイドに立つ技術者がNECの技術者を嘲る議論を垣間見て、驚きとともに一言口を挟みたくなりました。若手技術者に希望を与え活性化することが当プロジェクトの目的のひとつだと思いますがこの状況は何なのか。小生は学会、官界には全くのど素人ですが、このままでいいのかどうか疑問に思います。現在の事情の下では、いかにもNEC側に分が悪そうですが、こんなに現場の技術者が罵りあうのかとショックを受けました。一般的にはベクター型が時代錯誤と簡単に切り捨てられていますが、SUNが退場する時代背景で、富士通のSPARCベースのスカラー・プロセッサー開発に大量の税金を投入する意義も当然議論されるべきです。自前のプロセッサーを持たない国家は潰れるという大局感は”通商国家”として本当に正しいのかどうかという点も含めて。結論として非難しているのではなく、全く公の議論がなされないまま、未来のグローバルな大競争時代にズルズルとのめりこんでいく姿勢を問題にしたいと思います。単に1000億円の税金投入以上に、安易な議論だけで、プロセッサー・アーキテクチャに虎の子のソフトウェア群が引きずりこまれて、将来また致命的な結果を招かないかどうか。このプロセッサーで護送船団を組むという事の重要さを真剣に議論するべきだと思います。SUNの退場が大きなチャンスだという考え方は、過去何回も繰り返してきた過ちにまた嵌まるのではないか。流れとしてのニッチな市場での安易な成功戦略が今日の日本ITの惨状を招いたことを直視しなければなりません。この論点では小生は多くの実例を語る事ができます。攻め易いからといって、戦機を逸した戦略(?)拠点に攻めのぼって何が得られるのでしょうか。これは何もベクター型に限った話ではないでしょう。誰もが去った拠点を占拠できたとしても、そこには世界の技術リーダーとしての賞賛も実利もありえません。そこからはグローバルなマーケットには入っていけないのです。
モノリシックなベクター型/スカラー型ハイブリッド設計の破綻
ただベクター型が無くなった事で、今回のベクター型とスカラー型のハイブリッド論が潰れたことは大いに歓迎します。大きな2つの異質の計算機系の塊の無理やりの連結に新鮮さを感じる技術者は世界にも殆んどいないと思います。チップ・レベルなどでは汎用プロセッサーとアクセラレータの組み合わせがこれからも大きな話題になると思いますが、将来のチップレベルのハイブリッド方式は、実はベクター型スパコンの構成内で、スカラーユニットとベクターユニットの形で既に完成しているのであり、今回のハイブリッドの構えは異常です。このトップダウンのアーキテクチャが現状の混乱の全てのように思います。スカラーとベクターの良いとこ取りというよりは、発熱や運用コストの隠ぺいや怠惰な互換性の追求、そしてもう何度目かの国産プロセッサー開発への拘りの隠ぺい、などが理由のように見えます。今回の騒動の原因は、プロジェクトの実行者が殆んど意味の無いヘテロ統合に精力を投入することに疲れ果てたのではないかと勘ぐります。そんな事に煩わされなくても、NECとしては地球シミュレータの大型商談に今年も成功されたようですし、それを無事稼働させる方に忙しいのではないでしょうか。
米国事情との比較
当プロジェクトの目的を次の3点からもう少し論考してみます。
① 世界最高速のスパコン開発による日本技術力のブランドの回復
② 最高速スパコンによるシミュレーションを基礎とした科学応用計算リーダーシップへの後押し
③ CPUを中心とした計算機系新規技術の開発と、それによる国産ベンダー支援と技術の波及効果
①の国家ブランドとしての目的は日本人として十分納得できます。過去何回も、スパコン分野における日本のリーダーシップに敗退して米国側がどれだけ慌てていたかは承知しています。この点についての論議は章を改めて書きたいと思います。また大きな旗の下に技術者のエネルギーが結集されることは国家ブランド確立、国威発揚の方策として国を超えた真実でしょう。問題は勝算があるのかということです。これはある意味で費用対効果を超えた質問です。軍事大国としての米国には絶対的な動機があるのは理解できますが、通商国家としての日本にとってはどうなのでしょうか。何が何でもやらねばならないテーマなのでしょうか。しかも小生には勝算があるとは思えないのです。
ニュース・ソースがWebで権威がありませんが、IBMのスパコンに関する記事がいろいろ出ています。
DARPAやNCSA Blue WatersではIBM Power7で10 Peta Flopsだと言っています。一方でLLNLがSequoia
(IBM BlueGene)で20 Peta Flopsを出すと。同じLLNLは別にIBM Roadrunner (AMD OpteronとIBM
Cellの hybrid)で1 Peta Flopsの実績を持っています。とにかくIBMだけでも多角的ですし、IBM以外にCrayやDellなど多様な技術合戦が背景にあります。今回の富士通開発のスカラー型は富士通Venusの強化版だと言われています。これはPower7を強く意識してはいるのでしょうが両者をアップル・アップルでは論じられないと思います。小生には開発フェーズが全く違うプロセッサーだと写ります。発熱量の試算を見てみても技術の妥当性を欠いているようにも見えます。このような状態での決め打ちが戦略といえるのでしょうか。トップをとれなくてもそれなりの成績を収めればいいという意見もあるでしょう。しかしベクター型でTOP500の上位に食い込めればというのなら理解できますが、スカラー型ではどうでしょうか。Crayの生んだベクター型にはある種の畏敬の念が強く残っていますし、地球シミュレータで顕示したNECの意地と技術力は大きく評価されています。またLinpackのレース仕様とは違った、応用プログラム側のプログラム容易さと実効性能の面で依然としてベクター支持者も世界に多いでしょう。
長々と書きましたが①の目的でスカラー型でプロジェクトを遂行することには小生は疑問を呈したい。とにかくもっと真剣な議論を重ねる必要があると考えます。このままでは日本技術力顕示のブランド効果の目的は達成されないと考えます。
汎用民生品の成功に相乗りする仕組みがコスト構造を決める
②の科学技術応用計算のリーダーシップ支援、特に創薬などの計算化学の新領域などでの本来最も重視すべき科学や産業全体をけん引すべき技術国家戦略の面ではどうでしょうか。ここで力を発揮出来ないのではそもそも①の目的はスパコン・ゴッコにすぎません。この面での鋭い批評を野澤徹さんがCNETのブログ上で沢山書かれていますが、小生も全くの同感です。とにかく日本のスパコンは高価すぎると思います。技術立国を謳うのであればお金の使い方が間違っているのではないか。同じコストで可能な思考(?)錯誤のシミュレーションの回数が100倍も違うことになれば、今回の国家プロジェクトの理由など全くナンセンスになります。例えば、DARPAのIBM
Power7機導入の予算が$244Mで10 Peta Flopsですからプライス・パーフォーマンスは約$0.02/MFlopsです。一方でNEC
SX/9の発表時のデータはこの100倍以上の値段でした。実績ある機種と未だ出荷もされていない時間軸の違う機種を安易に比較するのはフェアーではありませんが、真剣に議論すべきテーマです。特にx86系CLINUX (Cluster&
Linux)機のコスト・パーフォーマンスを考慮すれば努力の対象が違うのかもしれません。誤解されて困るのは、技術チャレンジの世界に一方的にコモディティ化の波を注ぎ込めと言っているわけではありません。小生はIBMに40年いた人間であり根っからのコモディティ化嫌いです。1990年代初期のダウンサイジングの理不尽さをIBMが突破できたのは価値ある新技術への脱皮であり、そしてその価値の大きな部分にはコスト構造の大変革がありました。
では何故こんなにコスト構造が違ってしまったのでしょうか。これはもう明らかだと思います。今回のような政府トップダウンでのスパコン開発など米国ではやってはいないからです。IBMなどの私企業がそれぞれのビジネスとして得意の技術を商用機として開発し、一方でDARPAやNCSA,
LLNLなどの調達側が、懸賞金のような形で支援している。DARPAのケースでは三段階の勝ち抜き戦をやっている。しかも自前のプロセッサーに拘っているのはもうIBMぐらいしかいない。良いか悪いかの判断は別にしてx86系のコモディティ技術をベースに大半のベンダーがゲームに参加している。一方でIBMの強みは自前の技術力を依然として商業ベースに乗せていること。Intel系のコモディティ化への大合唱に対して踏ん張っている。多様なスパコンを出荷しているがその成功要因は、構成技術を徹底的に商用機と共有・共用しているからでしょう。産軍型の国庫補助で技術開発して商用に展開しているわけではありません。全く逆の構造になっているようです。スパコン開発の投資は本来のxx%程度ですんでいると伝え聞きます。商用機のベース投資に便乗する形でグランドデザイン的な先進技術を開発しているわけです。一方でDARPAはそれで得をしているわけです。$244Mで世界最高速機を調達出来るわけですから。 IBMの半導体戦略もこれと全く同期しているようです。"Innovations
are expensive", "Collaboratory (Collaboration + Laboratory)"のキャッチフレーズで世界の民間企業、大学・研究機関との連携の模索で、もう一方の民間の雄、Intelに対抗しているのです。
応用計算側での新たな頑張りが必須
この勝ちパターンの構図は民間機で勝ち残るしかない我が通商立国の富士通、NEC、日立にとっても同じでことしょう。だからこそ彼らには甘えてほしくはない。逆に大学や政府系機関のリーダーの方にもっと頑張ってほしい。高いお金を払い続けて大事な技術者を甘やかせるのではなく、常に世界をリードする要件をベンダーに要求してハッパをかけるべきです。もっと言わせていただければ、切磋琢磨の真摯な技術への挑戦にもっと積極的に参画すべきではないでしょうか。それでしか、ありったけの知能を集約することでしか、日本がグローバルで勝ち残る事はできない。当たり前のことですが。かっての日本のベクター型スパコンの成功もこの点が大きかったですよね。失礼な物言いになってすいませんが、従来のプログラム、算法からだけのリクワイアメント、互換性だけの要件定義に安住しないで欲しい。ご自分でも冒険してほしい。ご自分のプログラムに合うスパコンを持ってこいだけでは虎の子のベンダーはグローバルの競争には勝てない。解くべきモデルによって最適なスパコンのアーキテクチャが違ってくるのはそのとうりでしょ。しかし汎用でなければコンピュータの市場性はありえません。ベクター方式が未だ常識だった時代に、IBMに持ち込まれたタンパク質生成過程のシミュレーションを謳うBlueGeneの超スケールアウトのアイディアが”汎用のスパコン”として受け入れられるなど、当時何人の技術リーダー達が本音で考えたでしょうか。恥ずかしながら小生も全く考えもしませんでした。それを可能にしたのは応用計算のリーダー達だと思います。ベクター型の実効率を90%だと声高に主張しても、高々数倍の効率性の違いにしか過ぎなくなってきています。100倍とかのプライス・パーフォーマンスには太刀打ち出来ないわけです。この面では”T2Kオープンスパコン”の努力を高く評価したいと思います。ただしこのようなイニシャティブがプロセスとして形骸化した時の恐ろしさに注意してもらいたいとも思います。コモディティ化の大きな負の面です。潜在的で多様な優れたアイディアを抹殺しないようにして欲しい。
より本質的なIT、ICTの技術革新に乗り遅れないか
さて③の技術の波及効果ですが、もう明らかではないかと思います。小生にもこれ以上論説するエネルギーが無くなってしまいました。プロセッサー論ではCellのようなアクセラレータやGPUの可能性が議論されています。マッシブ・スレッド処理の再挑戦とそのための並列処理ソフトウェアの挑戦も続いています。一方でAmazonやGoogleに代表されるCloud論がITのデリバリー・モデルに大きなインパクトを与えています。Cloud
ComputingはGrid Computingとは幾つかの本質的な面で全く異なっています。またIBMがストリーム・コンピューティングという複合データ解析中心のスパコンの新しい分野で大攻勢をかけようとしているようです(ここにもBlueGeneが登場してきます)。しかしこれらのキー・アイテムも多様なIT、ICTの大きな流れの中では一部にすぎません。今回の”事件”をきっかけにしてもう一度勇気を出して国家IT戦略を根本から見直して欲しい。そしてグローバル戦で是非成功させて欲しい。本当にそう願います。それは、通商国家としては、いつまでもプロセッサーだけに拘ることではないと思います。新時代の応用や仕組みを押さえてからでも遅くはないでしょう。
大いなる蛇足、余計な議論
日経BPの北川さんの記事に、今回の政変(?)の背景には実はNEC若手技術者のスカラー型への趣旨替えがあったのではという記述があります。このスカラー型とはVLIW型なのでしょう。だとすれば、懸案のItaniumの後継を担ってはいかがでしょか。悪い冗談です。すいません。小生がここ数年日本のベンダーがItaniumに乗る非を口酸っぱく主張してきたわけですから。ニッチでの成功狙いですよね。一方で富士通がSPARCでのスパコンを開発しながら、ついにx86系でのサーバー・ビジネスに大きく舵を切ったようですね。基幹系においてもです。PRIMEQUEST(Itanium)の商談が一方で弾んだようですので悩みは大きいのかもしれませんが、この選択は良い結果を出すのではと思います。
でも皆さんの動きは遅すぎてイライラします。
↑ |
|
|
|