- 「すべてのものを小さく、うまく」 David Ditzel (TRANSMETA) インタビュー
2004.05, Software Design, pp.112-117 (6 pages)
[ note ]
どうしても取材のアレンジがうまくいかず、これは今回も流れたか!
と諦めかけたときにわざわざ当人が携帯に直接電話してくれて何とか成立した取材。
Dave は紳士で、TRANSMETA 社創設時のことやさまざまな技術のことを丁寧に詳しく教えてくれた。
プロセッサというハードウェアの極右(?)に位置する製品開発に、もっとソフトウェアのパワーを導入するのだ、
という主張と、プロセッサ自身の中にある最もソフト寄りな部分をもっともっと活かしてコード実行を効率よくするのだ、
という主張が非常に高いレベルで重層化された設計思想にかなり感じるものがあった。
- 「ただ小さくするだけでなく」Jory Bell (OQO) インタビュー
2005.04, Software Design, pp.112-117 (6 pages)
[ note ]
TRANSMETA プロセッサを使った超小型マシン、というより、超個性的なマシンだから会ってみたかった、という主観的な企画。
予想に違わず非常に若く、実にアーティスティックな印象。
早口で話すのであまりうまく話ができず、またこちらが妙に緊張していたのでどうも欲求不満的取材になった。
しかしてあとでテープを起こしてみると、これがものすごい話をしている。
記事でもあまり充分には書けなかったが(だって書きようの無い話の方法と内容なのだから!)、
最後に彼が話した事は、まったくアーティストが自分の絵や音楽を通して世の中から共感を得た、というような話そのままに見える。
ある種の表現できない(つまり再現できない)感銘を受けた取材。
- 「ハードとソフトの境界で」Chuck Thacker (Microsoft) インタビュー
2005.05, Software Design, pp.80-87 (8 pages)
[ note ]
偉大なハードウェアエンジニア。余り下勉強せずに会い、ぶっつけで取材する習慣がこれほど裏目に出る事があるとは。
こぼれ出る余りに多くの単語や年代のことが頭に入りきらなさ過ぎる。
これの取材前に3時間ほどびったり Azul の人達と話し込んだせいで自分の英会話燃料が尽きており、
全く会話が成立しなかったために取材としてはかなり最低の部類。
それでも真摯にお話し頂けたのはただただ感謝するばかり。
結局彼の仕事のこぼれ話を幾つか拾っただけ、という結果になってしまったようで情けない。
最後に出した二つの質問は即興にしてはそれなりに面白いものになったと思うことにしたい。
- 「消費(consume)ではなく貢献(contribute)する子供達を」Mike Bove (MIT Media Lab.) インタビュー
2006.06, Software Design, pp.88-91 (4 pages)
[ note ]
これもまた取材のアレンジがうまくいかず、流れたかと思った時に当人から CES 現場で電話を貰って実現した滑り込み取材。
時間が 30 分しか取れなかったくせに、半分近くの時間をあちらのペースでザーっと説明されてしまったり、聞かなくても良さそうな LCD の事などに僕が突っ込みすぎたりと、たくさん無駄をしてしまった。
ただ実際のところ、本当にハードウェア的に面白いところ(たとえば CPU を止めて eBook を見るとか MESHNET relay になるなど実際できるのか?とか、億台単位で出すための工場計画や廃棄計画など)を聞くには微妙に時期が早かったようなので、記事としてはこれくらいかもしれない。
誰でも多かれ少なかれ世界を押すために仕事をしていると思うが、それをひしひしと感じた取材。
- 「ロゴが先か、Google が先か」Dennis Hwang (Google) インタビュー
2006.07, Software Design, pp.94-99 (6 pages)
[ note ]
非常にシャイな Dennis さんとの、それこそ三年ごしのインタビュー。
いろいろ面白い話が聞けたのだけれど、僕がかなりへばっていたために余り幅のない通り一遍の取材になってしまった。
最初に広報の方に時間を 30 分と言われてちょっと精神的に余裕がなかったせいもある。
ただ、他のネットメディアに出ている Dennis のインタビュー記事などはまさにこの 30 分で細かな質問をダダダっとやるタイプのもので、なんというか彼らしくない感じがする。
そういう意味では彼の印象を何となく伝える記事に出来たのではないかと思う。
- 「PIXAR における 2 つのエンジニアリング」Dr. Michael B. Johnson (PIXAR) インタビュー
2007.06, Software Design, pp.82-87 (6 pages)
[ note ]
当初、兵庫の PIXAR 展で講演された Alex Stahl 氏 (マルチスクリーンによるインスタレーション、Artscape の共同製作者) に取材するつもりでアプローチしたところ、Stahl 氏や PIXAR 広報との推薦で Johnson 氏となった。
ただでさえ僕がこの取材を通じて感じたことは伝わりにくい性質のもので、充分に書けたか今でも悩ましい。
取材後に調べたことがある。Ed Catmull は NYIT の CG ラボの創設者(またはその時期の主要メンバー)であり、彼はそこで行われた The Works と呼ばれる最初期の 3D CG 映画プロジェクトが数年間もがき苦しみ、結局は未完成に終わった姿を見ている(はずだ)。1978 年頃から 80 年代後半までにあたる。
Catmull は 1979 年に Lucas Film に移ったが、ここでは CG は映画そのものではなくエフェクトの位置づけだった。(ヤング・シャーロックが懐かしい。)
1986 年に Lucas は Steve Jobs にこの CG 部門を売却し、Catmull は PIXAR の CEO となる。何年も映画制作の支援ツール(ソフト・ハード)を作っていたが売れない苦難の時代を経て、遂に(そして再び)自分たちで映画を作りはじめる。
The Works は「エンジニアはいたが監督(つまり映画を作る人)がいなかった」と言われた。Catmull はその経験から「CG 映画」にはエンジニアと映画制作に携わるアーティストという二つの極端に異なる人種が必要だ、これを両手に握って決して離さずやるぞと心に決めていたのではないかと僕は想像してしまう。
それが Catmull と John Lasseter との協働であり、取材した Mike の姿勢、作られるソフトの性格や使われ方、また今の PIXAR の社風そのものの骨になっているのではないか。そしてこの骨なしには 1995 年の TOY STORY は無く、今の PIXAR も無いのではないかと思ってしまう。
PIXAR が世界で最初の CG 映画を出せたのは偶然ではなく必然だったはずで、その理由がそこではないかと思う、の、だが、これは Catmull に聞くほか確かめる方法がない。いつか取材してみたい。
Pitch Docter (ストーリーボード・システム)を主にとりあげて取材が進んだが、これのスクリーンショットを撮れなかったのが残念。
- 「情報地球儀開発記 - 机の上から世界へ」Michael T. Jones (Google) インタビュー
2007.07, Software Design, pp.86-90 (5 pages)
[ note ]
大変に気さくな Mike Jones 氏、ほとんど何も予習せずに聞いた僕にていねいに答えてくださって大変に助かった取材。
彼の経歴は大変に興味深いもので、こればかりは少し予習をすべきものだったのかも知れない。彼は SGI で OpenGL などの主要なソフトウェア製品のディレクターあたり(非常に上の方の立場)を経て、本物の 3D リアルタイムグラフィクスの世界を充分に経験してからゲームコンソールのグラフィクスライブラリの会社へスピンアウトしている。
その時期は産業的にも実際そのようにグラフィクス技術のトレンドが移ってきた頃で、Play Station 2 の発売はそれを象徴している。
Mike はこの PS2 の開発者から支援を受けて起業し、hand tune microcode をベースとした PS2 用のライブラリを出している。
Emotion Engine はマイクロコードがプログラマブルになっていてソフトウェア会社に公開されているのだが、実際にそこをいじってチューンできた人たちは世界で何人いたのだろう?と思ってしまう。
当時、GameCube の取材をした時に周辺のエンジニアに聞いてみたが、そこでははっきりと PS2 のチューンの難しさ、GameCube のプログラム開発環境の良さを聞いた。
そしてそこから一転してネットワーク・アプリケーションである Google Earth へのジャンプ。
今またグラフィクス技術のトレンドはスタンドアロンのゲームコンソールから、オンラインゲームとフルパワーのCPU+GPU、潤沢なメモリをもつPCの組み合わせへとシフトしつつある。
Google Earth はまさにこの 3D 高速グラフィクスとブロードバンドネットワークを融合させたアプリケーションだ。
Mike は常に高速グラフィクス技術のど真ん中を歩いている。
それも戦友とも呼べるスタッフと会社を渡り歩きながら。
カッコいいじゃない。
- 「Wayback Machine で未来を見る」Brewster Kahle (Internet Archive) インタビュー
2008.05, Software Design, pp.68-73 (6 pages)
[ note ]
相変わらず事前に勉強しないのだが、Kahle は大した人だった。
MIT AI Lab から Thinking Machines に移り Danny Hillis に学んだという。すごい。
CM-1 のプロセッサ、CM-2 のアーキテクチャ、CM-5 のOS、と言うから、つまりはコアの部分そのままではないか。
CM-1 はプロセッサ開発が何より厳しかったはずで、CM-2 は同じSIMDプロセッサの拡大版であるからシステム全体設計が肝だったはず。
CM-5 は全く違うMIMDマシンで、こちらはプロセッサは既存のものだから問題はマルチプロセッサの通信・同期処理つまりカーネル内処理が問題だったはず。すごい。
そのガリガリのエンジニアが人文系の人のようなことを言いながら図書館を作っている。やはりすごい。
WAISは当初データマイニング的な文書検索のための社内システムとして、CM-2 のアプリとして作られたという。
このインターネット版もCM-2で動作していたと。僕らのあの画面の先にはCM-2がいたのか。
そしてデータセンターでCM-2に遭遇した。不思議な感じがした。
彼はその後 Alexa を起こすが、こちらもマイニング的なことをする。
彼がデジタルライブラリを作っている、というのは、僕の主観ではこのあたりの経歴とうまく符号する。
執念というか、信念を感じる。
彼はコンテンツ課金(か何かそうした方法)でインターネットにまともなビジネスモデルを持ち込もうとしていたようで、これがうまくいかなかったと感じているらしい(これは別の取材記事で見た)。
だからWAISであり、コンテンツで稼いでいたAOLへの売却だったわけだ。
Alexa だってそうした収入モデルが描けるはずの構造になっている。
今でも広告主体のビジネスモデルしかインターネットでうまく動いていない、というのは彼には望ましくない状況なのだろう。
そうしたことを踏まえて彼の言う、だからパブリックなものをやるんだ、という言葉は重い。
本部の入り口に SFlan.org の旗が立っていた。
非営利でやる、という姿勢とぴったり合う。
スタッフの身なりも実に NPO 的な感じで、このあたりも含めて素晴らしい。
自分の人生をどう生きるか、という事を考えさせられる。
- 「Web世界でのシステム設計と開発アプローチ」Brendan Eich (Mozilla corp.) インタビュー(前後編)
2008.06 Software Design, pp.75-79, 2008.07 72-75 (5+4 pages)
[ note ]
マシンガンのように話すBrendan Eich氏との強烈な一時間半。Seth Spitzer によれば「僕たちでも聞き取れない時があるし、意味が分からないこともある」とか。まあなぐさめて貰ったのかも知れないが。
それにしても発散している、と言えるほどバラバラと話をする。
しかし戻ってテープを聴き起こすと面白いことに、脱線したと思った部分がそれぞれつながっている。
つまり話の断片はそれぞれつながっていて、それら複数の話題を少しずつ並行に話すような状況だったように見える。
原稿ではこれをまっすぐに並べ直した。彼の思考(論理構造)を僕は横から眺めていたのかも知れない。
そういう意味で面白い取材となった。
彼は元 SGI のカーネルハッカー。初の 64bit MIPS, R4000 のgccポートも彼。その後MicroUnity のソフト部門(聞き損ねたがキャリア的にはきっと並列マイクロカーネル)を経て Netscape。
そこで今度は言語処理系(VM)をやって、いま、VM およびブラウザ全体の並列処理を検討するという。
彼はSGIでグラフィクスハードウェアによるアクセラレーションや、マルチプロセッサによるカーネルの並列処理対応、MicroUnityでのDSP処理とマイクロカーネルの並列対応などを見ているはず。
その彼がハードウェアの並列化を見ながらソフトを組む、というのは、これもまた10年前に見た道そのものだ。
つまり彼は本当に Back to the Future していることになる(が、このあたりの年季の入った話は記事からは外した)。
突然「Worse is Better」と言うのでびっくりしたが、そこで挙がった MIT AI Lab のエンジニアの一人、Kahleに僕はこの前日に取材している。
運命というか、面白いものを感じる。
どちらも古参兵と言って良いキャリアの持ち主で、彼らが頑張っているのは僕には大変心強く思えた。
- 「インターネット動画生中継サイトUstream.tv本社訪問記」John Ham (Ustream.tv) インタビュー
2009.04.02 日経 IT Pro (web)
[ note ]
もう少し技術的なことや会社のことを尋ねてみたかったのだが反応と話の流れから控えた。
幾らかは聞いたのだが記事では伏せている。
本当はデータセンターの運営(外注?)なども含めてスタートアップから今に至るまでの変遷などいろいろ知りたいことはあるのだけれど仕方なし。
まあ普通こんな取材はないだろうから良いか、と思うことにしたい。
どうせならオバマ大統領との接点なんかを聞いてみれば良かったと思ったが後の祭り。
オフィスは Castro Street の中にあり、またフロアがキュービクルではなく日本の会社のような配置で開放感があることも手伝って明るい印象。
軍隊出身というだけあって、体格もよく背筋も伸びているが、ものごしは非常に丁寧かつフランクな応対。
おみやげのお返しとしてステッカーとTシャツをいただいた。
ベンチャー企業の創業者は概して(素の)親切さというか暖かさが感じられる人が多い。
- 「Niagara へつづく道」Les Kohn (Ambarella) インタビュー
2009.05 Software Design, pp.176-182 (7 pages)
[ note ]
チップ(汎用CPU)屋さんは往々にしてチップしか見てないように僕には思えるが、彼は全く違う印象だった。
860本来の強みを信じ、Intel を飛び出して 860 を使ったワークステーションを作ろうというのだから凄い。
社内で競合的でもあった486との兼ね合いもあって自分が手がけた860がうまく出ていかない状況に我慢できなくなったのかも知れないが、実はその前のNS320xxで似たような経験をしているようだ。
彼の大学での専門は物理だが、コンピュータに興味を持って転向したという。卒業研究は言語処理系だった。最初の仕事は NS320xx 開発だが(そのアーキテクトは一緒にやってきた友人だったらしい)、Wikipediaによるとそこではプロセッサだけでなく言語、OS、ワークステーションをまるごと作る計画だったらしい。
当時は日本の PSI も含めてそういうトライは他にもあったが、とにかく強いシステム指向の中で育ったのではないか。
860はIntel 初のRISCだが、単なるRISCインプリメントのトライといったものではなく、SIMD命令やピクセル演算まで投入した明確なグラフィスク及び計算処理マシン(当時まだレンダリングよりワイヤフレームの時代だった)であり、また強烈にコンパイラに依存して性能を稼ごうとしている。
性能の多くをコンパイラでの最適化に期待した当時のRISC技術を鑑み、それが最も効果的に機能するゴールを用意して実装したとも言える。
強烈なまでのSpecificな作り込みを感じる。
その意識が Niagara を産むことになるのだから面白い。
Niagara の面白さは8コア4スレッド多重ではなく、浮動小数演算器が一つしかないことや、Out of orderを放棄したことにある。II では過剰なまでのI/Oをon die で用意したことだ。
偉大なエンジニアが成したことを振り返れば、そこには過去のキャリアの全てがあると感じることが多々ある。
僕はこれをつまり「総力戦でやっている」と解釈している。
過去の経験から使えるものは全て使って問題に当たるのだ。
Afara 買収後、CMTプロセッサが一旦キャンセルされた経緯を話す時、ちょっと横を向いて笑いながら「何て話そうかなあ」と言った彼の顔が忘れられない。
技術的には結構面白い話が聞き出せて比較的満足できた取材となった。
- 「歴史を変えるエンジニアリング」Andy Bechtolsheim (Arista Networks) インタビュー
2009.06 Software Design, pp.106-113 (8 pages)
[ note ]
恐るべき早口で話すとんでもない人だった。しかも人の話を聞かない。
自己紹介、おみやげ渡しが終わって着席するや否や「Cloud Computing is.. 」と始め、30分ノン・ストップで話す。
何か少し簡単な質問をすると一分で答えてどんどん別の話へと続く。
一時間を過ぎる頃これは駄目だと説明途中で質問を割り込ませたが、最後の方は取材というより闘いだった。
前に Galaxy のテストエンジニアだった知人などに聞くと、彼はいつでも誰向けでも同じ内容のことを話すそうで、まあしょうがない。
Andy へのアプローチはしかし何年もかかった。
結局あちこちコネ経由と正攻法でアプローチしたがおよそ捕まらず、ベンチャーに移ったのを幸いに FAX を投げたのだがこちらも返事無し。
やむなく現地で時間を作って会社に押しかけ、出てくれた女性(「ここにはPRはないのよ」と明るく言われた)にお願いして帰った。
これが火曜。
そして木曜夜、携帯が鳴って「あー私は Andy Bechtolsheim ですが」と言われて実現した滑り込み取材。
思えば Transmeta もそうだったし、PIXAR も似たようなものだった。
つくづく米国ベンチャーの文化を感じる。
(もちろんうまく行かない事も多い。YouTube にも同じ事をしたが成らなかった。)
本当は Kealia のことをもっと突っ込んで聞きたかったが、このとき録音機の電池が切れて飛んでしまった。
恐らく二度と無いチャンスに予備電池も持たず愚かだった。
同行の増田君が Garageband で録音を続けてくれたのは有り難かった。感謝。
Kealia は当初MIPSのブレードで設計していたが後に Opteron に設計変更せざるをえなくなったのは失敗だったと言っていて面白い。
2003年はR16000でOrigion3000 が出ており、Opteronは最初の製品が出た頃で、成功するかどうか見通しが立ちかけた頃か。Intel はまだ AMD64を無視してItaniumを押していた。
僕は(某 aki-s さんの話もあり)KealiaはHyperTransportを活かした低レベルでの分散並列研究をやっていると思っていたのだが、MIPS、ブレードでは話が合わない。
逆にクラスタ的な高い層での並列すなわちHPCだとすると2003年に64bitのためにMIPSを選び、Opteron/AMD64が出た時点でシフトしたのは不思議ではない。
むしろOpteron はHPCで今でも Intel に並ぶかしのぐ人気があり、そこに目を付けたのだとすれば Andy の判断は正しい。
そうであれば、その後 HPC や Infiniband fabric に進んだのもよく判る。
つまり最初の製品として出てきた Galaxy は、実は Andy のゴールとしてそれほどズレてはいないし、ひょっとすると TSUBAME や TACC こそが Kealia のゴールだったのかとも思う。
またゆっくりこのあたりに絞って聞いてみたいが、恐らくその機会はない。
あっても彼のことだからまた機関銃のように一方的に喋るのだろう。
- 「iPadばかりがタブレットじゃない!-もう一つのタブレット、「ModBook」はこうして生まれた!」
2010.02.04 日経 PC Online (web)
[ note ]
事前に取材を申し込んでみたが返事が無く、やむなく当日朝に現地に行ったところ「そのメイルは見たことがない」と言われたので、自分の予定を伝えて取材依頼をして一旦引き揚げ。その後電話が掛かってきて成立した(またですか!)取材の一つ。
ところが自分の予定が詰まっていると言っておいたら何と「朝の8時でどうだろう」と言われてびっくり。「だって11AMまでしか時間が無いと言うから、そこしか無いんだ」とのことで、ええい、しょうがない行くか(ホテルから近くないので6AM起きだ)、と諦めて OK と返事をした。
会ってみるとしかし Haas は面白い人だった。非常に多様な経験を積み重ねて ModBook を作り上げている。しかしそれらの経験の多くはある種のエンジニアなら身に覚えがあるものが多いだろう。つまり Haas は我々に近い世界を歩いている、と感じた。
ところで前日に対応してくれた社員氏もドイツ出身らしく、単車で通勤しているとのこと。Kawasaki らしいが、エンジンとウィンカーを残して他は全部パーツを入れ替えてカフェレーサー風にしたのできっと見分けがつかないだろうと笑う。遅刻して現れたHaasもBMWのFだろうか、荷台に積んだピックアップで現れた。
またHaas氏の子供の頃の思い出話(没になった)が格別だった。シンクレアZX81を買ってもらい、Commodore 64 に進み、読めない英文マニュアルと格闘しながら一晩中掛けてディスクのフォーマットをしていたという。エンジニアかくあるべし。大笑いしながら僕も VIC-20 ユーザであったことを自慢した。
ところでこの原稿は iPad が出る前に書いている。iPad は iPod そのもので、Haas が欲しかったのは「プロユースに堪える」タブレット Mac だった。つまり ModBook のニッチな市場は手つかずのまま残されたことになる。またこれは Haas の予想どおりだったわけで、その意味では面白い。
なおタイトルは編集部によるもの。原文は「ModBookはこうして生まれた」だけ。ビックリマークもなし。
- 「IAのシステム管理者に訊くBlackboxの現状とInternet Archiveの今後」Andrew Bezella (Internet Archive) インタビュー
2010.07 Software Design, pp.46-51 (6 pages)
[ note ]
これもなかなかうまくつながらず、曲芸的に訪問できるようになった取材の一つ。Kahle に依頼を出していたのだけれど見て貰えていなかった。CESを見ている間に最後の催促を出して決まった。米国はほんとこれが多い。
以前の取材で、Kahle はSunがBlackbox を一つ寄付してくれないかと言っていたのだけれど、それが本当になったので行ってきた取材。アレンジが間に合わずSanta Clara の Blackbox が見られず残念。
Andrewはただ一人のフルタイムとしてサーバシステムの面倒を見ており、新しいサーバモデルの選定をやっていた。何というかエンジニア然とした感じ。ただ聞く限りでは Internet Archive は Blackbox をストレージとして使っているだけっぽい。それだけでも大規模ZFSとして面白いのだけれど。
サンフランシスコのダウンタウンにあり、教会だから面白かろうと Jory と一緒に行ったのだけれど、予想どおり彼は教会のホールの中にデータセンターを作る、というアイディアに強く引っ張られていた。僕はホールの中央にガラスで仕切った空間を作りたいと思い、彼は壁沿いにラックを置いてガラスで仕切ろうとしていた。なるほど。
Jory は元 Facebook のサーバエンジニアが知人にいるので、チャンスがあればデータセンターの計画に関わりたいようだったけれど、うまくはいかなかった模様。まあまた機会はある。
2010年の9月に再訪問したが、脇の部屋に新サーバが10個程度マウントされていただけで、ホールは手つかずだった。いつかキラキラのデータセンターができますように。なお地下のオフィスエリアもすごくきれいになっていた。
タイトルは編集部によるもの。原文は「教会に未来のライブラリを」だった。
- 「Aza Raskinが語るユーザインターフェースとデザインの潮流」(前編, 後編)
2010.10.08 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
一月に取材してようやく表に出せた取材。Aza はなかなか魅力的な若者で、すごく若くて、キラキラしたアイディアを持ち出してくる。何でもそうなのだけれど何かを表に出す時は、ある一線を越えなければならない。表面的にでも、本質ででも、とにかく何かで。そのインパクトが出せないようなら、たぶんそこには何もない。
Aza はそうしたインパクトに満ちたアウトプットを振りまいてる。まあ魅力的だなあと思う。
彼と何かする時はいつでもアドベンチャーだ。予定は大抵ちゃんと決まらない。その通りになるとも思えない。記事にも書いたように当日の夕方、Stanford Law School で Jonathan Zittrain のクラスを手伝うと言うから覗きに来ないかと言われてそのアドレスに向かった。場所が分からず授業には少し遅れて入ったが、途中でJittrain 教授から「今日は日本からジャーナリストが来てくれたよ」と突然振られて狼狽した。一体僕に何を喋れと??
一年前にAzaに会った時は「今日は TechCrunch アワードがあるから行こう」と言われて飛び込みで会場に入ったけど、これもまたえらいアドベンチャーになった(とても書けない)。
取材で彼はとても幅広くいろいろなことを話した。ただ彼の表現(英語)はとても面白く、とても記事としては日本語に載らない。Undo is Deleting なんて一体なんて言えば?State of your mind の state って、操作中の頭の中の切替え、つまり state machine としての振る舞いを言ってるんだけどそれって伝えられるもの?大学の時の研究を聞いたら dark matter の検出器は super cool だよ、superheated liquids なんだ、って、どう訳せる?「凄いクールだよ、過熱液体なんだ」って書いたところで込められたレトリックを理解するためには結局物理、それもその分野の知識が要るよ。
Azaはもし聞き手が瞬間的にまるごと分かるなら衝撃が来るような表現を瞬間的に使う。ある種の曲芸だと思う。しかし二重、三重に込められた意味を頭に飛び込ませるのは容易じゃない。こんなの記事にならないよ。
他にプライベートなことも多く聞いた。Jefのことも。どれも書かない。僕も自分の子供の一部になれると良いなあ。そう思うだけ。
サンフランシスコのビール屋に連れて行って貰ったら、ビールは何百種類、メニューは何十ページとあった。どうしようと偶然開いたページに Zot があった。初めて飲んだ。何でもないことまで本当にアドベンチャーだ。また何か一緒にやろう。
例によってタイトルは編集部のもの。今回僕はタイトルを付けなかった。実際すごく付けにくい。せいぜい「Aza Raskin との対話」くらいか。彼にインタフェイスやインタラクションに関して取材するのは実際彼とインタラクションすることそのものだ。一方通行の文字列になるようなものではない。それが凄い。
- 「ZERO Motorcycle MODEL S」
2010.12.16 WEB Mr.BIKE (web)
[ note ]
いつものIT関係取材とは全く違うバイクの記事。しかしシリコンバレーと無関係ではない。
2010年の1月に訪米したときの最終日、ビール屋で Will から Zero Motorcycles のことを聞いた。日本で調べてみるとfounderに Gene Banman とあり仰天。場所もLos Gatos のちょっと向こうで、これが最終日でなければ絶対に突撃取材していたところだった。仕方がない、また来年、と思っていたら予想外に9月に米国に行く機会があったので訪問してきた次第。
社内の工場などを見ると、ほんとうに単車というのは小さな設備で作れるんだなあ、ということを実感。何しろ手組みなのだ。
Zero はモーターもバッテリーも他社外販品の利用なので、カスタムビルダー域から頭一つ抜けた、ビモータのような立ち位置になるかと思う。もちろん量販車に対する優位性はエンスージアストを引きつける先進性や電動スポーツならではの美点だ。
直列四気筒DOHCのエンジンブレーキ、ジャイロ効果万歳で慣れた僕には今のZeroのニュートラル状態の旋回はちょっと怖いが、しかし従来とは異なる楽しみ方がきっとあるはず。
その昔KR250は全く違う走らせ方でサーキットを席巻したという。そういうことを捜さないと。
なお9月はGeneとは会えず。Mirapoint, NetContinuumの頃からずっとニアミスばかりしている。
(追記:翌年再訪問して Gene と会えた。彼はそのあとリタイヤしてしまったので、最後の最後に会えたことになる。良かった。)
- 「Living Earth - Moshen Chanに訊く」
(その1,
その2)
2011.06.23 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
MoshenはCobaltのエンジニアだったのだけれど、不思議とそこでは会ったことがない。彼と初めて会ったのは OQO の Jory の家だった。取材後も交流していたのだけれど、あるとき Jory から「元 Cobalt のエンジニアが居るよ」と紹介してもらった。その後、彼は OQO をやめて Mochi Media に移った。本当にいろんな職場を転々として、しかも前職とは別のスキルセットを必要とするところへ飛び込んでいく。
新しい技術が大好きなのか、fearless と言っても良いその心臓のなせるわざか。ちょっとうらやましい。
実際、彼はいま独立プログラマとしての生活を満喫しており(Facebook にときどき書いている)、それだけ見ると iOS プログラミングで一発当てたうらやましい奴、に見えないこともない。
しかしおいしい話などどこにもない。
一見簡単そうなその話の裏側には、なるべくしてそうなった、と納得できる技術の蓄積、つまり彼の才能と努力の蓄積がある。
おいしい話などどこにもないのだ。
ただそれを書きたくて、そして彼のエンジニアとしての真っ当なキャラクターを表に出したくて書いた記事。
またビール一緒に飲もう。ありがとう。
- 「設計, 運用, 日々改善 ~Open Compute Project に見る Facebook 流アプローチ」
2013.08.13 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
Facebook 本社(Menlo Park Campus)での取材。
ここは元 Sun Micro. のオフィスがあったところで、取材を含めて何度も入ったキャンパス。
Facebook がそのまま買って、さてどうなったかなと思ったらビルは塗装し直した以外は恐らくそのままで、外部に隣接する建屋間の交通のために渡り廊下をつけ、中庭の木を抜いてフラットな舗装に変えた程度の修正で済ませていた。
しかし渡り廊下の鉄筋が真っ赤だったり、中庭やベンチ、テーブルなどのカラーリングを含めたデザイン統一でぐっとモダンに見せることに成功していた。きっと良いデザイナーが全体を見てる。
社員の年齢層もぐっと若くなり、建物の中もキュービクルで閉ざされた感じはなく、全体にフラットでオープンな感じになった。
シンプルで、アクティブで、ボールドな感じ。まさにこれが社風なのだと思う。
取材を通して感じたこともまさにこれで、彼らは短時間に少数のスタッフで、大きな目標に対して大胆に切り込んでいく。
最初にどかんとやって、不都合があれば直す。直せば良いだろう?という姿勢で、これはまさにソフトウェアのマインドだ。
もちろんこれはローカルサイトに資源をインストールしない web サービスに顕著なものだから、それを下敷きにして醸成された文化なのだと思う。
ラボ訪問はとても楽しかった。
どの会社でも、どのラボでも、その中を見るのは面白いものだが、ここには OCP が最初に出したムービーで登場していた風洞があった。
当時僕はこのムービーを何度も見た。隅から隅まで見た。
そのせいで部屋に入った途端、ああ、この風洞に会えた、とちょっと感動してしまった。
彼らが「オーブン」と呼ぶ温湿度試験機の中にはサーバのボードや ioDrive がごろごろ転がっていた。
取材では結露試験をする文脈で聞いたのだが、Matt は熱によるボード伸縮の影響について話していた。
外気冷却の話で今回一番面白かったのは実はここで、なるほど外気冷却ってのは大変だなあと感心した。
今後も継続的に追いかけてみたい。
- 「64ビットARMクラスタへの道のり」 - Gary Lauterbach氏へのインタビュー -
AMDの64ビットARMチップ“Seattle”のカギを握るFabricテクノロジはどこから来たか
(前編,
後編)
2014.12.05 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
実際に取材したのは 2014年の4月。まだ Seattle の製品としての発表が無かった時だった。当時はまだまだ ARM64 サーバチップの話題がポピュラーでなく、機が熟すのを少し待っていた。HotChips でAMDから正式な発表があり、そこに Freedom Fabric の事が何も無い、と判り、さて出そう、と思ったらいろいろ手間取ってこの時期になってしまった。ちょうど Qualcomm の参入発表があった直後だ。まあ良いタイミングだったのではないかと思う。
初めて Gary に会ったのはその一年前の 2013年4月。AMD の買収発表すぐ後だった。その時に Freedom Fabric アーキテクチャについて延々と尋ねて、およその疑問をクリアにしていたので今回は Seatlle の状況について議論を集中することができた。
はじめ Seatlle のビジネス的な状況について少し聞いてしまったためか、あるいは Gary の性格か、幾らか堅めのやりとりで始まった取材だったが、僕が Dave Ditzel や Les Kohn など彼が良く知る人たちと会って話した事や、様々な技術的なことについて話すうちに最後はずいぶんと打ち解けて話してくれるようになった。
2013年に会ったときに UltraSPARC プロセッサにサインをしてもらった。うれしい。宝物だ。いろんな人から、ちょっと聞けない話をたくさん聞ける機会に恵まれている。ありがたいことだと思う。
- 「Open Networking Summit 2015レポート - ソフトウェアが世界を変える! SDN/NFVとオープンソースによる企業改革の時代へ」
2015.08.27 インプレス Smart Grid フォーラム 特別レポート (web)
[ note ]
2015年6月のONS 2015参加中に山崎さんから依頼されたレポート記事。一対一取材でない記事を出すのはいつ以来か。前半部分を担当。書きたいことは二つあった。
ひとつめ。レガシーなハードベースの産業をソフトウェアが丸ごと巻き取っていく姿を僕は何度目撃したろう。Wintel PC, iPhone, いまカーナビか。いずれもハードな人たちは「あんなのはオモチャだ」と言って、その後ろにあるソフトウェアの評価を誤り、屈服する。自動車そのものもEVと自動運転でそうなる。IoTそのものがそうならないようにしないと。
ふたつめ。オープンソース・ソフトウェアがネットワーク部分に入り込む過程は、サーバ部分でそれが起きた時そのままの再現だが、ネットワーク分野の人たちはそれに気がつかないのか、そこから余り学んでいない。whitebox switch と呼ばれる動きも、その言葉こそ white PC box から来ているのに、やはりその一度来た道のことをあまり知らないようだ。なんとかしたい。
- 「超高速Flash Storage Systemへの挑戦 - DSSD D5の設計について,Andy Bechtolsheimへのインタビュー」
(前編, 後編)
2016.07.12 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
2009年に取材して以来、7年ぶり二度目の Andy への取材。一年以上前から DSSD について取材をしたいと思っていた。Andy に連絡したら EMC に買収されたので技術が公開されてからでないと何も話せないんだ、と丁寧に返事が来て一年経過。D5 の発表を待って再度連絡して三月の訪米時に取材できることになった。
構造的には PCIe Fabric だと事前に分かっていたが、しかしどう設計したか(料理したか)が知りたかった。Fabric を通り抜けて RDMA をやると言うが、そのためのアービトレーションを完全に外側からソフトベースでやってしまう、というのがいかにも Andy らしい全体設計だった。これならサーバ側から Fabric がほとんど Transparent に見えているだろうと思える。実際、NIC に載っている小さなブリッジチップだけが Non Transparent switch らしく、そこで root complex が切れていると思われる。
この Fabric は CLOS ネットワークになっており、そこでは Over Subscription が問題になる。そこで大量ポート数スイッチである Arista 7500 では大量バッファを設けて CLOS としない設計を行った。バッファが少ない PCIe switch では問題は更に深刻なはずで、結局 Andy は異なる設計を行った。それが Xeon プロセッサベースの分散コントローラによる完全なアービトレーションというわけだ。FTL もこのコントローラに置き、PCIe Multicast で冗長書き込みを行い、Cubic RAID のための補助情報はやはり Multicast でデータを取得したコントローラが後から書く。とても合理的で、ピースがうまく収まっている印象がある。Andy の設計だなあ、と思う。
Andy は真っ直ぐ質問すれば、いつも真っ直ぐ、何でも答えてくれる。同席した EMC の広報氏は、Andy がパートナー以外にこんなに話すのを初めて見た、と言っていたが、いや、彼は恐らく展示会ででもどこでもエンジニアとは何でも話しているだろうと思う。とても楽しく、エキサイティングな一時間少しだった。
- 「データセンター向け水冷サーバ「Triton」に見るDellのアプローチ」
2017.09.20 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
Texas の Austin での取材。本文にも書いたが、彼らの従来的なPCビジネスのマーケットはいま、下側は Tablet の普及、上側は ODM ベンダーと直接やりとりするハイパースケールユーザによって削り取られている。DELL は過去においてR&Dでは目立たない企業だったが、この液冷サーバの開発・提供を大規模顧客と手を組んで行う、というアプローチはなかなか良い。
特にCPUごとIntelと調整、というのは Supermicro のような Intel と近い距離で開発を頑張るベンダーでもそうそう採れないアプローチと思う。ある程度の規模があるとは言え、主としてソフト寄りのエンジニアによって成長してきたであろうネットサービス企業にとっても、このあたりはハードルが高く、DELL が座るポジションとしては妥当と思われる。
Triton は小さな、しかし100% DELL born のチームで行われたプロジェクトで、ラボの雰囲気はまさにスタートアップのそれだった。取材した Austin はガタイが良く、マシンガンのように喋る兄ちゃんだったが、とてもシャイな一面もあって楽しい取材になった。
なおDELL本社ビル、なにか大きなものがあるかと思ったら記事中の#1ビルのままのようで、なんというか社風というのはあるなあ、と感じた。
- 「5G時代に実現されるエッジ・コンピューティングとIoTシステム - エッジ・クラウドへAT&T、マイクロソフトも参戦 -」
2018.08.01 インプレス Smart Grid フォーラム 特別レポート (web)
[ note ]
2018年3月のONS 2018で 5G 向けの Edge Cloud が「1ms 遅延」の掛け声と共にフィーチャーされたことを主題として、それがエッジ・コンピューティングに不可欠の要素だったピース、つまりエッジのコンピューティング資源を実現してくれる可能性などを展望したもの。2015年に同メディアに山崎さんと共同執筆したONS 2015のレポート記事と同じく、一対一取材でない久しぶりの記事。
僕らが本来夢想していた IoT 応用にはエッジでの分析処理が不可欠だ。大量のセンサーが継続的に産む個々のデータは、そこに含まれる情報の金銭的価値が極めて希薄で、それをパケットとしてクラウドまで転送していては設備コストが高くなりすぎてしまう。この当たり前のことがなかなか認識されないか、あるいはそれを見なかったことにしたいためか、IoT 応用はパケット量が少ない、あまり IoT 的で無いものから脱せないでいる(と僕は感じている)。
今では「データはその90%以上が、捨てるか、その時そこで処理しなければ価値を失うようなものだ」と認識されるようになったが、しかし問題はそのためのコンピューティング・リソースを整備するのは誰か?というものだ。ある程度広域で、誰でも安価に使える様になるには共用財としてここに先行投資するものが必要だが、いままでそこに踏み込んだものは居なかった。
分野横断的な内容であり、掲載誌読者層向けに計算機技術に詳しく無い人向けに調整したところもあるので少し漠然とし過ぎていたり不十分な説明になっているところが出てしまった。
- 「RISC-V の現況と Esperanto Technologies のアプローチ」
2019.02.02 [ Presentation (YouTube) ] [ Slide (SlideShare) ]
[ note ]
これは出版物ではないが内容的にここが近いのでこの位置に置いておく。1月に Esperanto を訪問したり、RISC-V Day Tokyo 2019 の開催があった。Domain Specific Computing に焦点を置いた
FPGA Extreme でこの時期の RISC-V を取り上げるのはとても良いタイミングだったと思う。主催の佐藤さんから声かけを頂き、オープンソース・ムーブメントと合わせて概説した。
- 「F5 NetworksによるNGINXの買収に見る,オープンソース・パワー」
2019.06.14 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
ネットワーク・アプライアンス企業による、オープンソース・ソフトウェア世界の主要スタートアップの買収が、同年3月に発表され、そのどちらも見ていた僕としてはとても驚いた。F5 は典型的な非オープンなアプライアンスを起源とするところだったから。
テーマとしたのは現代的なオープンソースとはどういうものか、ということ。ビジネス・アプローチとして、オープンであることは何が利益となるのか。またそのような企業を買う価値とは何か。それはソフトウェアが日々世界を書き換えていくパワーを増していくなかで、そこにアタッチすることで企業競争力を高めようとすることだ。今後はインハウスのソフトウェア・エンジニアと仲良くするほか無く、そのためにオープンソースによってデベロッパたちと距離を詰め、一つの未来を共有するのだ。
僕は同じ視線で RISC-V や MIPS Open を見ている。プロセッサですら、もう「はい、これが新しいプロセッサです、どうぞ使ってください」では立ちゆかないのだ。次代のアプリケーションが何を欲しているのか、そこをソフトウェア・エンジニアと共有するほかないのだ。そのためにオープンにするのだ。
- 「Wave Computing(MIPS)とEsperanto Technologies(RISC-V)への取材を通して見た,オープンソースプロセッサというムーブメント」
2019.09.09 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
一つ上の記事に RISC-V と MIPS Open のことを出したが、まさにその部分のことをストレートに書いたもの。MIPS への取材も上の F5/NGINX と同日だった。
記事にも書いたが、Art は元MIPSで、Transmeta など長く Dave と一緒に仕事をしている。Dave とは2004年の取材(「すべてのものを小さく、うまく」Software Design 2004.05)以来、何度か会っており、シリコン・エンジニアの息の長さと、シリコンバレーという再挑戦を高く評価する文化を強く感じた。
例によって取材ではその人の来歴などを尋ねたが、Art は「あんまり個人的な話は気が乗らないんだけどね」と言いつつも、丁寧に答えてくれた。感謝。しかし何より驚いたのはこの記事が出た直後、Art がWave/MIPSを離れて再び Esperanto に、それも President として戻ったこと。Waveに何があったのか。。
- 「ウェハースケールCPUの誕生 - Cerebrasのクレイジーな挑戦」
2020.01.31 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
GaryがAMDを辞めた後に、彼は何やってるの?と人づてに聞いて、また何かやってるよ、とは聞いていた。
果たして、その二年後あたりに再会してその壮大なスケールのアイディアに僕は衝撃を受け、2019年夏のHotChips での情報公開を待っての取材・記事化となった。
取材は僕が冒頭、I want to write how crazy you are! と言ったのにGaryとAndyが噴き出すところから始まった。
スタートアップ・ストーリーについて聞くことは多いが、今回の経緯もとても面白い。
ところで図書館で議論したという創業メンバーのほとんどはSeamicro のチームで、古参兵というと失礼だが、歴戦のツワモノが集まっていることがわかる。
二年ほど前だと思うが、最初にCerebras を訪ねたとき、Garyに開発の内容を聞いたときのことを思い出す。
スクライブラインを越えて配線なんて引けないじゃない。
つないでしまったら熱膨張率の違いで配線が外れるよ。
左右方向だけでなく電源ピン押し当てるのだって外れちゃうよ。外れないほど強く押したら割れない?
ていうかDefectどうするの?
ワームホールルーティングするにしても単純隣接接続じゃホップ数が上がりすぎるし、ショートカットすると配線大変じゃない?
その大量のデータどうやってくべるの?バッファ足りないんじゃ?
もうGaryが何か一つ「ここはこうするんだ」と言うたびに、そんなの(これが理由で)いま言った通りに出来るわけないじゃん、と質問していた。
強烈に面白い時間だった。
この短期間で、この完成度で製品として出してことを本当に尊敬する。
- 「Cerebrasの新しい挑戦 -- データフローマシンとして流体力学問題を解く」
2021.04.12 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
今回は珍しく取材記事ではなく、Cerebras社との協力記事という位置づけ。Cerebras社から依頼されて、Cerebras のHPC応用について紹介する内容の文章を書いた。内容はSC20 での Cerebras の発表(
論文 )の内容をとてもうまく解説した Cerebras 社の
blog 記事があるので、そこへの誘導記事的なもの。上記の Blog 記事はとても良く出来ているのだけれど、それでもまだ長い。そこをHPC のことなどに馴染みが無い人にも易しくなる方向で短くした感じ。この記事を書くために論文を読み直したのだけれど、ホントにうまくデータフロー・システムとしてのハードウェアの性質をうまく活かしていて感動する。モデルがこれで収まる限り、SMPでこれに対抗するのは無理ではないかと思える。Sambanova のシステムが、もう少し粒度大きめの(つまり同じシリコンバジェットで、もう少しだけ柔軟な)問題のマッピングができるかと思う程度で、この領域ではちょっと対抗できるものは無さそうに思える。ホント凄いシステムだと思う。
- 「Cerebras Systems社訪問レポート」―Wafer Scale Engineのその先へ、史上最大のチップを作るだけで終わらない彼らの挑戦
2022.09.22 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
コロナのために企業訪問などが停まってしまったが、ようやく行けるようになった2022年夏の訪米での取材。Cerebras訪問は何度目か。Rebeccaによる新しいオフィスのラボ・ツアーとAndyとの議論を軸とした記事。Rebeccaは実に細かいことまで丁寧に説明してくれて素晴らしかった。こうしたガイドがいないとラボなんか見ても何も分からない。ラボではさまざまな専用治具などを使って(当然自作だろう)CS-2の組み立て(仮組み?)などが行われていた。
全方位でのR&Dが要求されたはずのCerebrasだから予想はしていたが、それにしても面白いラボだった。一日眺めていたいところだった。
- 「RISC-Vの進化を牽引するEsperantoの挑戦。シンプルなアイデアと実装の困難さ」―Dave Ditzelへのインタビュー
2022.09.30 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
これも2022夏の訪問となる。新しいオフィス(筆者が訪問したなかでも3つ目のオフィス)で、Mountain View のとても良いところにあった。一階が Otter.ai で、なんというかAIの時代だなあ、と感じた。確か一つ前のCaltrain Station 脇のオフィスは、Bump (iOS App) が同居していた。
それにしてもDaveは元気だった。教科書に載るような偉業を成し遂げたひとがいまも一線で開発している、というのは凄いと思う。4000マルチコア、ローカルメモリつき、といったシステムのデバッグ(実質は各トランジスタの状態確認?)が大変だ、というのは良く分かる。論理で動いたとしてもそのあと可変電力・クロックで安定して動作するか(しなかった場合の原因を突き止める)、といった作業も待っている。僕らは完全に決定論的に動作するハードウェアの上で計算機の特性を活用しているが、それはこうした困難さの上にあるんだ、と再認識した。
- 「ディープラーニングの未来:東大とMorphoが目指す次のAI社会」
2023.04.28 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
私にしては珍しく(?)国内の取材となったもの。富岳を使った銀河形成シミュレーション、つまり数値計算処理の一部を機械学習で代替しよう、というもの。実装を担当したMorpho社の知人によってこの「いまどき」のアプローチを知り、東大の藤井道子准教授とMorphoのエンジニア数名に取材させてもらった。本質的にはディープ・ニューラル・ネットワークが万能近似能力を持つことを下敷きに、偏微分方程式の求解を行なおうというもので、ほぼ研究の領域。一方でARMのSVEとプロファイラを用いたチューニングはかなり低レイヤーの実装作業となる。MorphoのCEO平賀氏をはじめ、担当したエンジニア数名はそうした研究領域とビジネスとしての実装作業の両側を見ながら進めていることが感じられ、こうした企業が増え、若いエンジニアが入りやすくなると良いな、と感じる取材だった。
- 「高性能・高効率なAIチップ“MN-Core 2”の設計アプロー - Preferred Networksによる新しいハードとソフトの役割分担」
2024.03.21 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
前作に続いて再び国内の取材。Preferred Networksが京都で出展していた時にブースでお願いして訪問させていただいた。狭義のアーキテクチャ、つまり命令セットからコンパイラ、プロファイラなどなんでもかんでも自作するというすごいことをやっている。結局はDeep Learningに本当に必要な演算が何なのかが明らかでない、少なくとも汎用プロセッサ(GPU含む)がこれまで用意した、また磨いてきた方法を根底からひっくり返して試す、という状況が起きている。こういうチャレンジをする、またできる企業が日本にあることに感謝したい。取材ではOpenACCつまりHPC方向への展開など多くの話題が出たが、記事ではMN-Core 2の性質とその設計アプローチに集中した。あまりに話を広げすぎると読者がかなり限られてしまう恐れがある。そもそもプログラムカウンタがなく、SIMDに命令をストリームで流す。というか線形メモリがそもそもない。ループもない。キャッシュもなく、DRAMからデータを手元のSRAMに「隙を見て持ってくる」だけだが、その間に演算器を止めないためにデータ移動を並行に行う。そのためのVLIW、なのだが、そんなこと短く書いても分からないだろう。しかしEsperantoでも一発焼くために幾ら掛かるか、リスピンが幾らの損失になるかという議論があった(なおEsperantoはリスピンせずに済ませている)。そこで出た開発コストが凄まじいペースで上がる問題をPFNも共有している。今後の「半導体時代」での重要なテーマの一つと思う。
- 「進化し続けるWSE(Wafer Scale Engine) 大規模AIモデルのトレーニング性能とは」(前編, 後編)
2024.09.30 技術評論社 Gihyo.jp NEWS & REPORT (web)
[ note ]
前回の訪問から2年経ち、アップデートとしてWSE3とSwarm-X/Memory-Xについて聞いた、という状態。この規模で3世代目のシリコンが焼けたというのはスタートアップとしてはひとつ山を越えた感がある。今回はCerebrasのアーキテクチャそのものがもたらす大きなインパクト、つまり分散学習がデータ並列しか起こさず、かつWeight情報の配布とリダクションがIn-Network Computingで為されているのでトラフィックが混まない(ネットワークのコストを上げなくて良い)という事に重きを置いてまとめた。今、GPUを持ちいた分散学習は実に大変な工数のかかる仕事になっている。Tensor分割などした状態で学習させた時、どのコアとどのコアが激しく通信する事になるかは予想がつかない。ネットワークが遠く、不測の遅延が生じて一台数千万円するGPUマシンを5%アイドル状態にさせてしまうと、結局は何百万円を捨てた事にになる。NVIDIAはこれをなんとかするためにパケットの順序が入れ替わった場合にBlueField NICを使って整順してからホストOSに渡す。しかしBlueField(元々はTilera)が安いはずはないし、そもそも400Gや800Gなどもめちゃくちゃに高い。それでもバンバンそれを導入しているのは、待たせることしかできないGPUサーバがあまりにも高額だからだ。JensenはCES2024で「ネットワーク・コストは実質タダなんだ」と言っているが、そんなわけはない。そこはアーキテクチャで改善すべきところと思う。特に今聞いている範囲では、結局パケットのリオーダなんかより800Gにして経路充填率を下げる(衝突率・待ち時間を下げる)ことが一番効果があるような話になっていて、これはもうエンジニアリング的敗北にすら見える。そろそろ僕らはGPUを使ったディープラーニング実装を諦めて、別の領域に進むべき時だと感じる。一つの答えはこのCerebras的解決、つまりシステムレベルではIn-Network Computing, 筐体レベルではウェファースケール、マイクロアーキテクチャとしてはデータフロー、という構成ね。