八発白中

はてなブログに引越しました。

Day 17: smart-buffer

これは fukamachi products advent calendar 2016 の17日目の記事です。

今日はsmart-bufferについて話します。裏側で使っているライブラリなのでたぶん知らない人がほとんどかと思うので紹介です。

Wooの成功

15日目に話したWooは想像以上に受け入れられ、すぐに実際に使ってみようという人が多く見られました。そしていくつか質問も飛んできます。

よくあった質問がこれでした。「ファイルアップロードしたときにファイルが全部メモリに載ってるよね?大きいファイルアップロードしたらやばくない?」

twitter.com

大きなリクエストの保持方法

もちろん、全部メモリに載せてたら問題です。Wooではこの問題に対してスマートな方法で対処しています。

リクエスト本文を読み込んでいき、サイズが小さいうちはインメモリバッファにロードします。もしサイズがしきい値を超えたらバッファの内容をファイルに書き込み、ファイルバッファに切り替えます。

つまり、小さいリクエストのときはインメモリで高速に処理し、大きいリクエストはファイルに書き出してメモリ使用を抑えます。

twitter.com

元々fast-httpのmultipartパーサーの機能だったのですが、これは汎用的に使えるな、と思ってのちに別ライブラリにしました。それが「smart-buffer」です。

smart-bufferのアイデア

このアイデアは僕のオリジナルではありません。

Pythonmultipartというmultipart/form-dataのパーサーライブラリがあります。これが全く同じ仕組みで動作し、小さいファイルアップロードにはメモリで、大きいファイルアップロードにはディスクで対応しています。

おわりに

smart-bufferはGitHubで公開されており、Starは7です。使っているライブラリはfast-httpとWooだけですね。

明日のアドベントカレンダーは18日目のtrivial-signalについてです。お楽しみに。

Day 16: QURI

これは fukamachi products advent calendar 2016 の16日目の記事です。

今日はQURIについて話します。

PURIへの不満

Common LispにはURIを扱うライブラリとしてずっとPURIが使われていました。

僕も詳しい経緯は知らないのですが、元々Allegro CLにあったURIライブラリを処理系可搬にしたのがPURIのようです。元となったAllegro CLのURIライブラリはCopyrightが1998年からになっており、かなり古くからあるようですね。

古くからあり広く使われてきたからと言って、不満がないわけではありません。

最もよくある不満は、Unicode対応がないこと。PURIで、URLエンコードされているUnicode文字列をデコードすると文字化けするのです。

これだけならばURLデコードにPURIを使わなければいい、という話ですが、PURIはしかもそれをデフォルトでデコードするという意味のわからない仕様なのです。

puri-unicode

これに対して各自いくらかパッチを当てたりして使っていましたが、@archimag *1がPURIのUnicode対応版のpuri-unicodeを作ってそっとGitHubに置いていました。これが事の発端です。

するとそれを見つけた第三者が、puri-unicodeをQuicklispに入れてくれと申請を出します。

※以下は完全に意訳です。

HiTECNOLOGYs: puri-unicodeをQuicklispに入れて。
Zach: puri.asdが本家と競合するから入れられない。

それを聞いて今度は@archimagに「システム名がPURIと競合してるよ (ロシア語)」と送ります。

HiTECNOLOGYs: システム名がpuriと競合してるよ。
archimag: これはわざとだよ。puriはUnicode周りで問題がある。puriの代わりにpuri-unicodeをロードすればいい。
HiTECNOLOGYs: でもどうにかしてQuicklispに入れられないかな?
archimag: それはZachに言ってくれ。

という感じで全く話になりません。

Zach: 本家PURIにマージできたらいいと思うんだけど。
(一同): 確かに。
Andrew (Wookieの作者): メンテナにメールしてみました。返事ないです。

みたいなことを一年以上かけてやってるわけです。

通常、メンテナに連絡取れないときは新しいメンテナとなってマージしたものをQuicklispに置き換えて登録することが可能です *2。しかし出て来る人みんな非協力でどうにも進まない。まあ僕は何も手伝ってないので文句言える立場じゃないけど。

twitter.com

こういうことを半分本気でツイートしたんだけど、冗談と思われたのか意外とfavられずにタイムラインの底に沈みました。

Wooの副産物

そんなツイートも忘れて数ヶ月後のこと。Wookieの高速化やWooの開発などに没頭していた最中。

昨日の記事でWooを高速化する過程でURIパース部分にそれなりのボトルネックがあることがわかってきました。使っているライブラリはあのPURIです。

機能だけでなく速度にも問題がある。これは単純にUnicode対応すればいいという話ではなくなってきました。そういう経緯で、やっぱり自前で高速かつ高機能なURIライブラリを作る必要があろう、と考えました。

それが「QURI (キュウリ)」です。

QURI

QURIに求められていたのは、Wooで使うので可能な限り高速であること。PURIの代替機能をすべて持つこと。それからPURIに足りない機能を補完することです。

具体的に足りなかったのは以下です。

  • UTF-8対応
  • userinfo対応 (git@github.comgitの部分)
  • IPv6対応 (ldap://[2001:db8::7]/など)
  • URLエンコーダ・デコーダ
    • URIライブラリにまとめてしまうほうがわかりやすい
    • 別でいくつかライブラリがあったがどれも遅い

QURIではfast-httpで得た、高速なパーサを書く知見を活かしてURIをパースしました。つまりtagbodyとgoのオンパレードです。

最終的にURIパーサとしてはPURIより6.6倍高速にできました。

例によってRedditにも投稿されて議論されていました。「きゅうりってのはキューカンバーのことだよ」とか書いてあって面白いです。

DrakmaのQURI利用騒動

もはやPURIを使うモチベーションはなくなりました。僕の立場としてはPURIを問題のあるメンテナンスのされていないプロダクトとして喧伝し、PURIを使うプロダクトを減らしていく必要がありました。けれどWooの開発もあったのでなかなか宣伝して回るのも手が足りません。まず手始めに、僕のプロダクトでPURIをQURIに置き換えたりしていました。

そんなある日、僕の知らない間にCommon Lispの代表的なHTTPクライアントのDrakmaに「PURIをQURIで置き換える」というPull Requestが来て、トントン拍子でマージされました。

これによりDrakmaはUTF-8対応できました。Drakma自体は置換がうまくいったのです。けれど、Drakmaに依存する多くのライブラリが返り値としてPURIのオブジェクトが返ってくることを期待しているコードがあるようで、Quicklispの中に多くのライブラリが影響を受けて壊れたようです。そのためこのPull Requestはやむなくrevertされました。

メンテナンスはされていても広く使われていることで必要な改善もできずに朽ちていく過程です。

ちなみに僕はこの話の4ヶ月前にDexadorという新しいHTTPライブラリも作っています。こちらはもちろんfast-httpとQURIを使っており、Drakmaを置き換える新世代のライブラリを目指したものです。

Dexadorについては20日目に詳しくお話するので楽しみにしていてください。

おわりに

QURIはGitHubで公開されており、Starは44です。

明日のアドベントカレンダーは17日目のsmart-bufferについてです。お楽しみに。

*1:Andrey, RESTASの作者。https://github.com/archimag

*2:named-readtablesでは実際にそれが起きた

Day 15: Woo

これは fukamachi products advent calendar 2016 の15日目の記事です。

今日はWooについて話します。

これがあらすじです。

twitter.com

Wookieの高速化

Wookieのボトルネックを解消してもNode.jsのパフォーマンスには今一歩届かない。そこで使っているイベントライブラリのlibevent2が遅いのではないか?という疑念が生まれました。libevent2がボトルネックならば、libevや、Node.jsの使っているlibuvに切り替えることでNode.jsと対等に戦えます。

するとWookieの作者のAndrewが、libuvに切り替える予定だ、というリプライをくれました。

twitter.com

その頃、libuvとlibevent2の有効なベンチマークは知る限りありませんでした。しかし、Node.jsがlibevから乗り換えたことを考えるとlibuvもlibev程度は高速であることが見込めます。そしてベンチマークによってはlibevはlibevent2より2倍近く高速ということがわかっていました。

つまり、黙って見てるだけでも2倍近く高速になるかもしれないという状況です。

Wookieのスリム化

で、黙ってみているのもつまらない。その間にできることはやっておきましょう。

WookieにはWebサーバーとしては不要の機能がいくつかついていました。URLディスパッチャやプラグイン機構などがそうです。これらがプロファイリングには出てこずとも積み重なって有意な差を生んでいるかもしれません。

それを検証するために、余分な機能を削ぎ落としたバージョンを作ろうと考えました。そのサーバーがClack-compatibleなAPIを持つならばClackハンドラのボトルネックもありません。

そして完成したのが「Woo」でした。削ぎ落としたと言ってもフォークではなくスクラッチから書き直したのですが、2日程度で完成しました。

twitter.com twitter.com

ここで実験して得た知見をWookieにフィードバックしたいという程度のおもちゃのようなプロダクトでしたが、最初のバージョンでもはや少しNode.jsより高速になりました。

URIパースの高速化

また、何度かのWooのプロファイリングでURIのパース部分に時間がかかっていることがわかってきました。当時広く使われていたPURIというライブラリは遅くはなくとも十分に高速と言えるものではありません。

そこで「QURI」という高速なURIパーサーを書き、これをPURIと置き換えました。

twitter.com

QURIについては明日のアドベントカレンダー16日目で詳しく書く予定なので今回は割愛します。

サムライトに入社

河西くんに声をかけられたのはこの頃でした。彼は当時サムライトのCTOをやっており、Node.jsの広告配信サーバーを開発していました。個人的にはCommon Lispが好きだったにも関わらず、Common Lispが遅かったため、やむなくNode.jsで開発を行っていたのです。不幸な境遇です。

しかし、僕がCommon Lispは速いということをNode.jsとWooの比較で実証しました。1.2倍程度の差ではありますが、言語として比較してもJavaScriptより抽象度の高く開発効率も良いCommon Lispで書かない理由はもはやありません。

最初はCommon Lispへの移行を手伝う程度に考えていたのですが、話を聞いているうちに入社したほうがよかろうと思い、サムライトに入社することになりました。

サムライトに入社しても僕の仕事が大きく変わるわけでもありません。引き続きWooの高速化と安定化、他のWeb系ライブラリの開発、不具合や質問があれば迅速に対応するといったことが僕の仕事でした。

とはいえ、のんきにはしていられません。

サムライトは広告配信システムを開発しています。同時に大規模なリクエストがサーバーに飛んできます。つまりは思っていたよりも早くWooのパフォーマンスを試せる環境を得たわけで、これが対外的にCommon Lispの優位性をアピールできる舞台でもあるわけです。

このチャンスを逃すまいと、僕は一層Wooの高速化と安定化に励みました。

Wookieの脱落

そうこうしているうちにWookieの使っているcl-asyncのlibuv化が終わりました。

twitter.com

けれど、これは失敗でした。libuvにすることでWookieのパフォーマンスはがくっと下がり、もはやNode.jsどころかHunchentootにも負けるような状態になりました。

同じバックエンドを使っていたWooも当然パフォーマンスの劣化が見られました。けれど、それまでの十分なパフォーマンス向上により、なんとかNode.jsより1.3倍高速というラインを保っていました。とはいえここにきてのパフォーマンスの大幅な劣化は気分が沈みます。

僕は、Andrewがパフォーマンスが落ちるということを知りながら早急にmasterにマージしたのは失策だと思います。

当時の僕はcl-asyncのuvブランチの開発状況を確認しつつ、ベンチマークを取ってIssueでフィードバックしていました。そしていくつもの改善も虚しく結果は芳しくありませんでした。なのでパフォーマンスが落ちるということを知らなかったはずがありません。

libuvのほうが開発が活発だからその未来に賭けたいと思ったのかもしれません。けれど、パフォーマンスが重要なWebサーバーというプロダクトで、現状数十パーセントもパフォーマンスが劣化するならばそのコードはお蔵入りで当然でしょう。

せっかく苦労して書いたものを捨てるのは勿体ないと思ったのかもしれませんね。けれど、パフォーマンス・チューニングなんてそもそもそんなものです。速くなるかどうかはある程度コードを書いて動かしてベンチマークを取らなければわからない。結局遅ければ全部捨てて他の可能性を試す、ということの繰り返しです。

Wooの爆速化

Node.jsを圧倒的に引き離すにはもはや細かいチューニングではダメということは自明でした。数十パーセントの変化は設計上や基幹ライブラリなどを大きく変えるしかありません。

この頃から、Wooの安定化と並行して、libevへの移行を行いました。

libevならばlibevent2とのベンチマークも公式で出ており、2倍近くのパフォーマンス向上が見込めます。もはやライバルはNode.jsではなくGoに移りつつありました。

そしてcl-asyncからlibevバックエンドへの移行が完了しました。

twitter.com

移行により予想通りパフォーマンスは跳ね上がり、Node.jsの約1.9倍のパフォーマンスが出ており、Goに迫る勢いです。詳しくは当時のエントリーを御覧ください。

高速なCommon LispのWebサーバ「Woo」を作りました - 八発白中

ちなみに最新のベンチマーク結果では2.3倍のパフォーマンスが出ています。

f:id:nitro_idiot:20161215145356p:plain

反響1: 実アプリケーションでは遅いのでは

Common LispのWebサーバーがNode.jsより2倍近く高速で、かつGoに迫る勢いだ、という主張がベンチマークもついて公開されたというのはインパクトがあったのかもしれません。

Reddit*1HackerNews にも投稿され、それなりの反響がありました。

反響の中には驚きや賞賛も多かったですが、否定的なものも目立ちました。

その中でもよく目についたのが、「こんなHello, Worldを返すだけでは実際のアプリケーションとは言えない (からこのベンチマークは無効だ)」というものでした。

仰る通り。けれど、Wooは「Hello, Worldベンチマーク」に最適化したWebサーバーではありません。実環境でも当然ながらNode.jsよりは高速です。

これは僕の空想ではありません。その後サムライトでは1ヶ月を費やして広告配信システムをCommon Lispに書き換えて運用を始めました。

早期導入を優先したため、SQLの最適化などWebアプリケーション側のチューニングは十分に行わなかったにも関わらず、以前のNode.jsより1.6倍のパフォーマンスが出ています。

以下はEuropean Lisp Symbopium 2015で僕が発表したスライドの一つです。このスライドで会場から拍手をいただいたときは、やっぱりうれしかったですね。

f:id:nitro_idiot:20161215161421p:plain

Woo: Writing a fast web server @ ELS2015

反響2: 本当に最速?

もう一つあったのが、「teepeedee2を知ってるか?」というものでした。

teepeedee2とはJohn Fremlinの作った「10k requests / secを超えられる」という触れ込みのCommon LispのWebサーバーです。公開された2009年当時ではC10k問題への解決策としてかなり反響があったはずです。

John Fremlin's blog: teepeedee2 achieves 10k requests/second (キャッシュ)

ベンチマークグラフにはnginxも並んでいますが、そのnginxよりも1.5倍良いパフォーマンスを出しており、C++で書かれたWebサーバーに迫っています。

もちろんteepeedee2は知っています。けれども言ってしまえば、「teepeedee2はプロジェクトが死んでる」。

twitter.com

Quicklispには入っていますが、最新のSBCLではLinuxでもビルドできない状態になっています。

動かないものとベンチマーク比較しろって無理じゃないですか。

twitter.com

河西くんが調べてくれたところによると、CFFIのAPI変更によるものだろうということでした。そして親切なことに、彼は手元で動くように簡単に直してベンチマークを取ってくれました。その結果は残念ながら、Node.jsより少し遅い程度だったという平凡なものでした。

IOLibも高速だとよく聞きます。実はcl-asyncを一度IOLibで置き換えたこともありました。しかし、パフォーマンスは下がり、Node.jsより20%も遅かったです。

この辺りで「Common Lispは速い」と言っている人の中に盲信者が含まれていることに気づきました。実際のところ誰も何がどれくらい速いかなんてわかっていなかったのです。teepeedee2はリリース当時は確かに速かったのかもしれませんが、現在では他に追い抜かれて朽ち果てたプロジェクトとなっています。

Goに勝てる余地はあるのか

最近は「Goと比較してWooは少し遅いようだが、導入メリットはあるか」という質問をよくされます。はい、あります。

理由は利用言語の違いです。Common LispとGoを比較すればCommon Lispのほうが抽象度が高く、機能も豊富です。たとえばCLOSやコンディションシステムなどです。これは開発効率にも影響しますし、長期的にそれなりの規模のWebアプリケーションを運用していくならメリットは十分にあります。

今は、最近Goを使い始めたばかりという会社ばかりなのでチーム開発や長期運用面でのつらさなどは表に出てきていませんが、2年後、5年後、10年後にどうなっているのか少し楽しみです。

パフォーマンス面でWooはGoのサーバーに勝てるのか、という話であれば、まだわかりません。ただ打てる策はあります。libevをやめるということ。libevではなくpoll, epoll, kqueueのバインディングをそれぞれ作ってそれを呼び出せばまだ5%程度なら速くなる余地があります。

これをやらない理由は、現状でそこまでのパフォーマンスを求められていないということと、時間がないからという消極的な理由です。興味がある方はPull Requestは歓迎します。

おわりに

WooはGitHubで公開されており、Starは475です。これは僕のプロダクトの中ではClackに次ぐ2番目の評価です

明日のアドベントカレンダーは16日目のQURIについてです。お楽しみに。

*1:はてなブログRedditのURLが貼れないので見たい人はこちら。 ttps://www.reddit.com/r/programming/comments/2qio4m/woo_blazing_fast_http_server_in_common_lisp/

Day 14: fast-http

これは fukamachi products advent calendar 2016 の14日目の記事です。

今日はfast-httpについて話します。埋め込みツイートが多いですが手抜きではありません。

Common Lispは高速か

Common Lispは高速だという話を界隈ではよく聞きます。噂によればC++やCよりも高速なプログラムを書くことができるとさえ言われています。

Cで書くコードの方がCommon Lispで書くより速いって人がいたら、それは彼のCの技量が高すぎるってことだね。

“If you can't outperform C in CL, you're too good at C.”Eric Naggum

昨日紹介したwebsocket-driverを書いたとき、好奇心からCommon Lispの実行速度というのはどれほどのものだろうと計測してみました。比較対象はNode.jsのwebsocketモジュールです。

勝負はあっけなく終わりました。書き上げてとりあえずベンチマークを取ってみようという段階で、僕が書いたCommon Lispの実装のほうが圧倒的に速かったのです。しかも、型宣言やoptimize宣言や関数のインライン化などもすればもっと速くなる余地がある状態でです。

これは当時の意気揚々としたツイートです。

高速に動くということの優位性

Common LispでWebアプリケーションが書けると言っても、じゃあ他と比べたときの優位性とはなんだろうという答えの一つがこれでした――Common Lispは速い。

これだけ抽象度の高い言語でありながらGoやC++と比べられるほどのパフォーマンスが出るのだから、これは強みになります。起業を考えていた自分はこの強みを活かして技術優位性としようと考えていました。

けれど、まだ道のりは始まったばかりです。

やっぱりCommon Lispは遅い?

河西くんTwitterで会話するようになったのはこの頃でした。先程のツイートを見てリプライをくれています。

twitter.com

Wookie *1がNode.jsのhttpモジュールよりも遅い、というのです。まじかよ、と思って実際に計測してみると、Node.jsはWookieよりも2倍も高速でした。

twitter.com

Wookieを高速化する

Common Lisp自体はNode.jsより遅い言語ではないというのはwebsocket-driverで知れたことです。ということは、何か遅い原因があるはずです。僕はWookieのソースコードを見てどうにかNode.jsより高速にしてやろうと決めました。

Wookieをプロファイリングすると内部で使っているHTTPパーサーのhttp-parseボトルネックとなっていることがわかりました。

twitter.com

中身を見てみると納得です。パーサー部分はナイーブに正規表現で行っていました。subseqなどの呼び出しも見られ、何度もメモリアロケーションがされているのがわかります。

このときの開発の状況はツイートによく残っています。http-parseのベンチマークを取って高速化してPull Requestを投げることを繰り返していると、じきにκeenも参加し始めました。

そして最終的にhttp-parseはWookieの最大のボトルネックではなくなりました。

でもまだ遅い

それでもWookieはまだNode.jsより少し遅い。そこで抜本的に改善するために一からHTTPパーサーを書きました。それが「fast-http」です。

twitter.com

リリース当時はhttp-parseの10倍高速でしたが、現在はさらに高速化されて120倍以上高速になっています。最終的にCで書かれたhttp-parser (Node.jsで使われているもの) よりも高速になったため、それをブログとしてまとめ、それなりの反響を得ました。

blog.8arrow.org

高速かつ抽象度の高いプログラム言語としてCommon Lispは十分に戦えそうだ、という実感を持った瞬間です。

上のエントリーからCommon Lisp界隈で「高速なプログラムを書こう」というムーブメントが起きたように思います。実際にCよりも速いコードが書けたぜ、っていうのはインパクトがあるのでしょうね。

でもまだまだまだまだ遅い

けれど、ここまでやってもWookieはNode.jsに勝てませんでした。

twitter.com

使っているイベントライブラリがlibevent2であることが問題なのだろうか?というツイートを残しており、Wookieの作者から「libuvバックエンド (Node.jsと同じもの) にするつもりだよ」とリプライがきています。

ここからまた面白くなるのですが、詳しくは明日のWooの回に取っておくとします。

おわりに

fast-httpはGitHubで公開されており、Starは252です。

明日のアドベントカレンダーは15日目のWooについてです。お楽しみに。

*1:Common Lispの非同期Webサーバー。当時はlibeventベース、現在はlibuvベース。

Day 13: websocket-driver

これは fukamachi products advent calendar 2016 の13日目の記事です。ようやく折り返し地点ですね。

今日はwebsocket-driverについて話します。

小さなライブラリではありますが、その後の話の発端となるライブラリなので紹介します。

WebSocket

Clackにより通常のHTTP通信を行うWebアプリケーションは作れるようになりました。しかし、よりリアルタイム性の強いもの、たとえばチャットやゲームのようなアプリケーションを作るには貧弱です。

たとえばWebSocket。TCP上のプロトコルであり、通信時の不要なオーバーヘッドが少なく効率的でリアルタイム性の高い通信プロトコルです。

ClackでWebSocketを使う方法はなく、使えるとすればHunchensocketというHunchentoot拡張くらいでした*1

Socket.IO

少しWebSocket周りの話もしておきます。

WebSocketの欠点は環境による通信状態の不安定さです。環境によってWebSocketが使えなかったり、使えてもすぐに切断されてしまったりします。この管理が難しくWebSocketの一般的な利用が妨げられているように思います。

この一つの解決策としてNode.jsのライブラリにSocket.IOというものがあります。

これはWebSocketが使えない環境のために通常のHTTP通信やHTTPのlong pollingなどで通信することもできます。最初はHTTPを試し、可能であればWebSocketに暗黙的にアップグレードします。ユーザー側もアプリケーション側も、何で通信しているのかということを意識せずに使えます*2

Socket.IOはプロトコルが公開されているので、Common Lispのサーバー実装を作れば公式のフロントエンド実装と通信できるはずです。

ではこれを作ろうと思いました。Common Lispは高速ですし非同期WebサーバーのWookieもあり、言語としての特性を活かせそうです。

これを作るためにはまずはWebSocketから。WebSocketのサーバー実装とクライアント実装を作りました。それが「websocket-driver」です。

EventEmitter

websocket-driverのインターフェイスとして参考にしたのがNode.jsのEventEmitterです。

const EventEmitter = require('events');

class MyEmitter extends EventEmitter {}

const myEmitter = new MyEmitter();
myEmitter.on('event', () => {
  console.log('an event occurred!');
});
myEmitter.emit('event');

onでイベントのコールバックを指定しておき、emitで登録されているイベントコールバックを呼ぶものです。

ClackがPlackから実装をコピーしたように、websocket-driverも真似ています。Common Lispならばメソッドを使ってhandle-messageなどでもいいではないか、と思う人もいるかもしれませんが、イベント名が固定でない以上はこうするしかありません。

馴染んでいるのか何なのかまだわかりませんが、これはClackでWebSocketを使える唯一のライブラリです。

おわりに

websocket-driverはGitHubで公開されており、Starは28です。

明日のアドベントカレンダーは14日目のfast-httpについてです。お楽しみに。

*1:しかし僕の意見ではこれも実用に耐えうるものではありません。Hunchentootはクライアント毎にスレッドを立ち上げるため同時接続数に制約があります。1サーバーにつき100ユーザー程度が限界でしょう。

*2:ちなみにこの部分はv1.0からEngine.IOという別プロダクトに分離されました。