pythonの協調フィルタリング実装ライブラリ implicit を動かしてみたら爆速だったという話(+α)

Qiitaの投稿をサジェストするシステムを開発するため(唐突ですが、作ろうと思っているのです)に利用を検討している、implicitというpython協調フィルタリングライブラリを試していて、以下のサンプルプログラムを動かしてみたのだが(--suggestとオプションをつけるとユーザへのサジェストのコードが走る)、

github.com

 
このサンプルプログラムはLast.fmという聴いている楽曲もしくはアーティスト(へのレーティング)に基づいておすすめのアーティスト(楽曲も、だったかも)をサジェストするサービスで得られた以下のデータセット
 
・約30万アイテム(アーティスト)x 約35万ユーザ、の行列データ(疎行列)
・要素数(レーティングの数)は約1700万
 
を、(デフォルトで利用されるimplicitではALSと呼んでいるモデルでは、)Matrix Factrazationか、Factorazation Machineかどちらか(どっちかは実装を読まないと分からん)で次元削減(して元に戻す)する前処理(fit関数)を行ってから、ユーザごとにサジェストの処理をするのだけど、使うモデルやパラメータにはよるものの、デフォルトのモデル・パラメータで、
 
・前処理: 約20sec
・サジェスト: 約5ms/user
*1
 
という処理時間だったので、サジェストするページのリストは夜間のバッチで作成しておくようにしようかと考えていたが、Webサーバの上のアプリケーションプロセス(というのが正しいのだろうか)の中で、hd5形式で用意しておいた疎行列データを最初にロードして、前処理(fit関数を呼ぶ)して(前処理した結果を保持しているモデルのオブジェクトがpickle等でシリアライズできるようなら、それをオブジェクトとしてロードする形にできるが、まだ調べてない)、リクエストのタイミングでサジェストするという設計でもいけるかなーとか考えているが、どうだろうなー。
 
WebフレームワークはDjango Frameworkを利用予定。
 
ただ、上記のデータセットをメモリに載せると700MB程度は食うようなので(※前処理・サジェスト処理はデータセットを置いておくメモリ以外はほとんどメモリ食わない)、Qiitaのデータセットは上記データセットより疎だろうし、同程度の行列サイズを想定しているものの、集められるユーザ・投稿の情報はもっと少ない気がする・・・ので、データセットのメモリ上でのデータサイズはもっと小さくなるだろう、ということを考慮しても、アプリケーションプロセスの数は1~3プロセス程度に制限する必要はありそう(運用予定の個人鯖はメモリ2GBしか積んでないので)。
 
で、Django Frameworkに限らんけども、その手のフレームワークって、1~3プロセス程度でそれなりの数のユーザをさばけるんだっけ。
(アプリケーションプロセスはGILを解放するネットワークI/OやDBアクセスのためのI/Oが多くを占めていて、なんちゃってマルチスレッドでも複数リクエストをさばける、という仕組みと認識しているが・・・)
 
なお、上に書いた実行結果は最近組みなおした自作デスクトップでの実行結果で、運用予定のマシンとはスペックが違います(自作デスクトップの方が上)・・・。
 
■自作デスクトップ(上記実行結果を得たマシン)
Ryzen 5 2600 3.4GHz 6core, 16GBメモリ
Windows10 64bit上の、WSL Ubuntu 16.04 (Windowsネイティブのpython環境では動作しなかった)
(今回の実行では利用されていないが、Radeon RX570 8GB GDDR5)
 
■運用予定の鯖(KVMを使っているっぽいVPS
Xeon Silver 4114 2.20GHz 仮想2コア, 2GBメモリ
CentOS 6 (x86_64)
 
以下は動作させている時の出力
gyazo.com

 
さて、この設計でいけるかなー
(まずはVPS環境での性能を見ろ、という話はある)
 
追記(19/11/25 6:30):
運用予定のVPSで実行してみたところ、下のようになった。
gyazo.com

行列分解なんかのマルチコアで並列化できるところはコア数が減っているのもあるのか、自作デスクトップ機と比べて7倍程度遅くなっているが、サジェスト処理自体は 200user/sec ぐらいだったのが、150user/sec に落ちたぐらいなので、単体コア性能で速度が決まるところは、75%程度までの速度低下(=1.3倍程度時間がかかるようになった)だけで済んだようだ。
前処理は一度やれば済む処理で、重要なのはサジェスト処理なので、この結果は悪くない。

*1:個人的には、くそ爆速やんけ!、と思った。ライブラリの主要な処理はネイティブバイナリで動作していて、マルチコア・マルチプロセッサのマシンで動作させるとよろしくマルチスレッドで並列処理してくれるらしいので、それが高速な理由の一つでもあるのだと思われる(モデルによっては、コードで利用する旨の明示は必要かもしれないが、GPUも使ってくれるらしい。なお CUDA・・・)。ただ前処理はマルチスレッドで動いているようだが、サジェスト処理自体はマルチスレッド化はされていない模様(マルチスレッド化してもオーバヘッドの方が大きくなるだけといった感じなのだろう)

VRChatってどんなアーキテクチャなのか探ってみる(1)

VRChat ( https://www.vrchat.com/ ) がどんな仕組みで動いているのか気になったので少し調べてみました(無料サービスでユーザー間の音声通話のデータをどうさばいているのか、と)。
※なお、VRChatはデスクトップ版もあってVRヘッドセットが無くてもプレイできます。
 
以下、自分のFBへの投稿の転載。
 

1つめ

VRChatってどんな通信をしてるのか気になって軽く眺めてみたが、Wiresharkとかでパケットキャプチャすると、STUN(NAT越えの時とかに使うサーバの名前だったりなんだり)のパケットが流れてるし、サーバっぽくないマシンとUDPのパケットのやりとしたりしてるので、ユーザ間はNAT越えでP2P通信をしている感じがする。
 
WindowsのパフォーマンスモニタでVRChatのプロセスのコネクション(TCPのみ)とか眺めてても、server-xx-xx・・・ みたいなアドレス(運営のサーバくさい)との通信は最初はあるがしばらくすると無くなったりしてたし。
 
WebRTCとか使ってるのかなあ。もしくは、ただSTUNサーバとか使ってNAT越えするところまでやってる?(STUNってWebRTCだけで使われる仕様じゃないよね?)
 
gyazo.com


 

2つめ

VRChatの仕組みを調べてみようその2。
 <1つ目の投稿へのリンク>
 
↑の投稿に続いて、VRChatがUPnPでルータのポートを開けに行ってないかパケットキャプチャしてみた。
で、結果としては、確実にUPnPでポートを空けると(私が)知っているソフトウェアの出してるパケットと異なり、自分の存在を advertise するようなメッセージはLAN内でブロードキャスト(かな)してるようだが、その後のルータへの notify (空けてくれやってメッセージだと思うのだけど)が無いので、どっちとも分からないという結果でした。
 前に使っていたルータはUPnPでポート開けるとルータのログにそれが記録されたのだけど、最近新しくしたものは、そのログを出さないようで、よう分らんかった。
 
話は変わって、前回の投稿でもコメント欄に貼ったのですが、もう5年前の投稿ですが、ver0.2.0のリリースノートが↓で、
 
www.reddit.com

 
どうも、改めて読むと、この時点ではユーザが今でいうワールドに対応するものをホストして、そのリストは運営側?で管理するか、もしくはホストしているユーザが登録して、他のユーザはリストにあるIPに接続しに行くというような作りだったみたい。
 
この初期の設計の話を踏まえて、昨日、WiresharkUDPパケットをキャプチャして眺めていた結果を考えてみると、ワールドに10を超えるユーザがいるのに、UDPで、VRChatに関するデータだろうと思われる通信をしているのは一つのホストとだけだったりしました(たまに別のホストと通信してるとかはあったかもだけど)。
WiresharkではCLASSIC-STUNと分類されるUDPパケットがあって、それはいろんなホストにrequestして、responseが来るってなことはしていた
 
さらに、VRChatの開発者コミュニティ用の掲示板?のようなものを見ると以下のような投稿がありました。
 
vrchat.canny.io

 
まだ、ちゃんと読んでいないのですが、要は複数のマシン(ホストと書くとややこしいのでここだけ表現を変えています)で一つのワールド(のインスタンス)をホストしたら、これこれの問題が解決されるんじゃね?という提案のようです。
 
で、以上のことを踏まえると、UPnPで穴開けてるかは確実ではないけれど、グローバルIPで外部からアクセス可能になっている状態のマシン(普通のユーザの使っているマシン)を、運営鯖が何らかの基準で選択して、ワールド(の1つのインスタンス)をホストさせて、他のユーザはワールド固有の情報(マップやら造形の情報等々)を運営鯖からダウンロードさせた上で、そこに接続しに行かせる。それらのユーザは、音声チャットや、各ユーザの移動、アバターの変更などのデータはワールド(のインスタンス)をホストしているサーバ経由で受け取ると。
 
そんな作りになっているんじゃないかな、と推測しました。
 
音声もしゃべってなければ、そのための通信は発生しないし(喋っているユーザは喋っていることを表す表示が行われるので、喋っているかいないかを判定していることは間違いない)、ユーザの位置関係によって音声が聞こえる聞こえないとかもあるので、それによって、同じワールドにいたとしても、音声を中継する相手を絞ることも可能なはず。
 
ホストしてるマシンが突然VRChatを終了させてしまったとしても、他のユーザが当該マシンがホストしていたワールドにいたのであれば、他のユーザがどこにいたかとかは知っているはずなので、"新しくホストしてくれるマシン"を運営が割り当てたら、ワールドにいたユーザが持っている情報を元にほぼ完全な形で前サーバがホストしていた状態に復旧?できるはず。(ホストしているマシンの離脱により、0人になったらどっちにしろ復旧する必要が無いので問題なし)
 
まあ、考え方としては、MSに買収された後、いくらか経ってアーキテクチャが変わってしまう(しまった)前のSkypeが採用していたスーパーノードという考え方と近いのではないかと。
 
と、いい加減な根拠で推測してみましたが、実際のとこどうなんでしょうねー。

PONG風 3D壁打ちゲームをUnityで作ってみた

お盆休みに「砦の攻防」というレトロゲームにインスパイアされた、2DゲームをUnityで作ったのですが、
 
ryogrid.hatenablog.com

 
折角Unityをいじったのなら、3Dもやっておかなきゃじゃね?
と思い、「PONG風 3D壁打ちゲーム」を同じくUnityで作ってみました。
 
※確認無く音がでるのでご注意ください
Unity WebGL Player | 3DPONG
 
まだ作りかけですが、一応動くものができたので、アーリーなんたらの精神で公開してみます。
 
githubリポジトリはこちら (masterは別のゲームなので注意)
GitHub - ryogrid/ryogridGamesByUnity at 3dpong

 

操作方法

・マウスで透明なラケット?板?を移動
・スペースキーで弾を前面に向かって射出(一個画面に出ている間はもう一度押しても次の弾は出ません)
・青いラケットで跳ね返ってきた弾をブロックすると跳ね返せる
・ブロックできずに後方に弾がいってしまったらその弾の回?はおしまいで、スペースキーで次の弾を射出する
 
ちなみに、PONGというのはコレです。皆さん一度は見たことやったことあると思います。
Atariのオリジナル版をやった人は少ないと思いますが)
 
www.youtube.com

 

残TODO

・【済】ラケットで弾が見えなくなることが多いので、ラケットを透明にした
・【済】跳ね返せた回数ぐらいは出したい
・【済】弾とラケットの位置関係が分かりにくいので、弾の中心からZ方向に水平にビームみたいなのを出すようにする
・【済】弾の移動方向のX, Y, Z 成分のバランスが適切な範囲に収まるようによろしく調整されるような仕組みを入れる
・【済】ラケットをもっとスムーズに動かせるようにしたい
・【済】マウスで操作できるようにしたい
・【済】ラケットに当たったタイミングが分からないので、当たった時に音を出すようにする
・【済】壁でバウンドした時にも音を鳴らす
・【済】ずっと同じスピードだといつになっても終わらない可能性があるので、だんだんスピードアップするようにしたい
・【済】弾がバウンドした箇所に跡を残す演出
・【済】弾がバウンドした箇所に煙を出す演出
・ラケットがステージをはみ出さないようにしたい

 

謝辞

最初は普通にRigibodyコンポーネントで反発を実装していたのですが、そうすると想定と異なった動作をしてしまう問題が発生して困っていたのですが(入射角が無視されて面に対して垂直に弾道が変わるとか)、以下の記事を参考に修正することで解決することができました。
有益な情報の共有に感謝いたします。
 
www.unipafu.com

筑波大のOB・OGはGoogle Driveを容量無制限で使えるらしい

なんか筑波大OB・OGはGoogle Driveを容量無制限で使えるらしい。
嘘のような本当の話。
 
同窓の友人が試して実際にアカウント発行してもらえたらしい(そもそも、その友人がこの情報のネタ元)ので、事実であることは確認済み。
 
では、なぜ、掲題のようなうまい話があるのか、という理由なのですが、
"交流広場"という現役生・OB・OG・教職員・教職員のOB・OG等が交流できる筑波大学が運営しているSNSがあって、

筑波大学交流広場

その利用アカウントとしてG Suite for Educationでメールアドレスを発行していて(発行する側は、生涯メールアドレス、と呼称しているので、基本的にはずっと使えるようにしておくことを想定しているのでしょう。しかし、生涯というキーワードはインパクトあるなあ)、そのメールアドレスにはGoogleアカウントがくっついてるので、それでGoogle Driveが使える、という話のようです。
 
mast在学中に使えるソフトウェアライセンスを紹介!Microsoft Office 365, Google Drive, Windows - MAST Web

f:id:kanbayashi:20190824091236p:plain
Gmail, Google Drive等についての記述
 
で、SNS利用規約を確認すると、
https://alumni.tsukuba.ac.jp/openpne/web/default/userAgreement
===
(会員)
第4条 次の各号に掲げる者は、別に定める本サービスの会員登録の申請をし、認められた場合、会員として本サービスを利用することができる。
(1) 本学(前身校を含む。)の卒業生、修了生及び元教職員
(2) 本学に在籍する学生及び教職員
(3) その他本学が認めた者
=== 
 
とあり、在学中から利用していること、という要件は別項でも書かれていないので、卒業済みでもアカウントを発行してもらえるというのは、間違いないようです。
 
ちなみに、申請にあたっては、入学年度と在籍した学群と学類もしくは、研究科と専攻をちゃんと覚えていれば大丈夫なのでご安心を(学生番号とかは求められない)。
 
ま、難しい話はさておき、交流広場ってなんか面白そうだから使ってみよー。
 

Unityでお盆に作っていたレトロゲームモドキが完成した

Unityで作っている「砦の攻防」モドキですが、もうこれは完成と言ってもいいのでは?なところまでできたっす。
操作は十字キーの左右で射出パワーを調整、上下で角度調整、スペースキーで発射。
一回発射すると相手のターン。ターンは画面左上、右上の射出時のパラメータの表示のところの左に@マークがあるかで判断します(@がある方がターン中)。
障害物は弾が何度か当たると消えます。
弾の速度が速いと、一発でぶち抜かれます。
 
基本は2人で遊ぶようにできていますが、一緒に遊ぶ人がいない人が一人でも遊べるように数字の1を押すことで1Playerモードと2Playerモードを切り替えられるようにしてあります(1回押しただけでは切り替わらないことがあるので、その時は何度か押してみて下さい)。
 
※特に確認とか出ずに、音が流れるのでご注意下さい
ryogrid.net


 
※PCブラウザ用に作ってあるのでスマホだと動かない場合も多いと思います。
また、キーボードで操作するように作ってあるので、Bluetoothスマホにキーボードを接続して操作するとかしないと、そもそも動作しても操作できません。
 
・残TODO

  • 【済】勝負がついたときの残存障害物のクリアが実装されてないので、一回勝負がついても、残っている障害物は次の回も持ち越しで、新たに障害物が追加で生成されてしまう
  • 【済】砲身を角度に合わせて出したい(分かりにくいので)
  • 【済】砲身の角度調整処理がたまにおかしくなるというのが、利用している方法の都合で起きていたので、それを回避するためにiTweenというアセットを利用して、書き直した。
  • 【済】障害物に耐久度を設けて、耐久度に応じてだんだん色が透明に近づいていくとかしたい。残耐久度の更新は、弾が当たった時の弾の速度を得る方法は分かっているので、それで力積とか求めてよろしくやってやればいいはず
  • 【済】セルフキルが起きないようにした
  • 【済】弾の運動エネルギーがブロックを破壊しても残っている場合はそのまま突き進むようにした
  • 【済】弾がブロックの上で停止してしまった場合に、よろしく消えるようにした
  • 【済】BGM と 各種サウンドを実装した
  • 【済】1Playerモードを実装した

  
githubリポジトリ
github.com
 
ものほんではないが、かなり再現度の高い「砦の攻防」クローン
www.nicovideo.jp
 
Unityは今回はじめて、それなりにまともに使いましたが、今回のプログラムだと、物理計算とか全部Unityにお任せするとやってくれたりするのは楽ですなー(弾道計算とか)。

プログラマのコードの生産性は何によって決まるのか

タイトルはいくらか誇大に書いてますw

以下では、もう少し因子?を絞って書きます。
要は地頭(頭の良さ)の部分ですね。

前提

・知識や経験は同じものとする

本論

ぶっちゃけて言ってしまうと私はコード書くのは遅い方だと思います(同じだけの経験・蓄積のある人間で比べれば)。

じゃあ、その差はなんで生まれるのか自分なりに分析してみたことがあるのですが(論文とかまで調べたわけではないです)、大雑把にくくれば地頭の出来とかになるのかなと思うのですが、それだと大雑把過ぎるし、地頭といってもいろんな要素があるし、IQが高ければ生産性が高いの?って言うと、なんか違うような気がしたんですよね。まあ、他の人のIQなんて知らないので、気がしたってのもいい加減な話なのですが。

で、結局、私が考えた限りでは、ワーキングメモリの量が、生産性を決める因子?として大きいのではないかとという結論に至りました。

ja.wikipedia.org

なお、この記事を書く時にぐぐってみましたが、日本語圏だと、以下のQiita記事でもワーキングメモリに言及しているのを見つけました。

qiita.com
 
自分の場合、おそらくワーキングメモリがあまり大きくないので、コード書く時に定義済みの関数や変数をいちいち見返したりするのに結構時間を食っている気がします。
また、コードベースがそれなりに大きいとソースファイルの数も多くなってると思うのですが、さっき確認したソースファイルの中身、どんなだったっけな、とか忘れて、読み返したりも多い気がします。

プログラマって、実はコード書いてる時間より、他人のコードを読んでる時間の方が多かったりする、とかいう話もあったりしますが(要出典)、上記と同じようなことが起きるので、これもやはりワーキングメモリの多寡でパフォーマンスが変わるのではないかと思います。
(なお、ワーキングメモリは鍛えることが一応でき、Qiita記事で言及されているNバック課題とかいうが一つの方法で、私もそれができるソフトだかサイトだかで1-2週間ほどトレーニングを試みたことがありますが、面倒くさくなってやらなくなってしまいました)

しかし、そういう人間を助けてくれる強い味方もいて、まあ、IDEってやつですね。
クラスやオブジェクトのメンバ補完であるとか、開いているファイル内で定義されている関数や変数を脇のペイン?とかに出してくれるのも助かりますね。
変数名・関数名の補完もしてくれますし(IDEじゃなくても、できますけど)。
標準ライブラリや、import することで(importというキーワードを利用しない言語は読みかえて下さい)使えるクラス名や関数名なんかも最近は補完して、よろしくimportしてくれたりします(確か)。

ただ、この手のIDEでのサポートって静的型付け言語の方がやりやすくて(IDEがコード解析やらなんやらしやすい)、動的型付けだと例えばPythonIDEの PyCharm とかかなり良くできていますが、静的型付け言語と比べるといくらか(結構?)落ちます。
私はどちらかというと静的型付け言語の方が好きなのですが、IDEでのサポートの受けやすさってのも、あまり意識したことなかったですが、理由としてあるのかもしれません。

あと、知名度の高いようなトッププログラマ(?)が、IDEとかあまり使ってなくて、EmacsVimとかにこだわるのは、そもそもIDEによるサポートとかあまり必要のないワーキングメモリの持ち主だから、なんてこともあるのかなとか思いました。

特に良いオチはないのですが、以上です。

いや違うだろ!などコメントあればどしどしお寄せください!

余談:
IQ値の多寡とワーキングメモリの多寡って相関はありそうですが、どれぐらいあるんでしょうねー

追記:
ちゃんとぐぐったら日本語のWebページでもこの手の話が既にいくつかあったので関連ページとして貼っておきます
プログラミングの効率アップの鍵はワーキングメモリだった | リバティドック
プログラムのアルゴリズムを理解するのって脳のワーキングメモリが結構重... - Yahoo!知恵袋
プログラミング学習と脳の使い方~本当に正しい学習してるのか?

ガウス過程での回帰についていろいろやってみた成果物?のまとめ

ガウス過程での回帰のコード(1スカラ入力)はサンプルコードを3つ動かしてみたのだけど(3つめは多次元入力のコードもあった)、3つめの多次元対応は最初にやったやつでもうまくいくか気になって、修正したらできたので、どちらも要はやってることは同じそうだ、ということが確認できた。
 
ryogridJupyterNotebooks/gaussian_process_regression_sample_org_0606_umakuikanai_huniki.ipynb at master · ryogrid/ryogridJupyterNotebooks · GitHub
 
最初にやったやつを修正した版
ryogridJupyterNotebooks/gaussian_process_regression_sample_org_0606_umakuikanai_huniki.ipynb at master · ryogrid/ryogridJupyterNotebooks · GitHub
 
少し前にQiitaに書いたガウス過程での回帰に関するなんちゃって解説記事
qiita.com

論文 "DEEP NEURAL NETWORKS AS GAUSSIAN PROCESSES" に少し目を通した

いきなり読んでも意味不明なので、掲題の論文をネタ元にしている
machine-learning.hatenablog.com
を読んで可能な限り理解を深めた後で、掲題の論文の肝心そうなところに目を通した。

"DEEP NEURAL NETWORKS AS GAUSSIAN PROCESSES"
Jaehoon Lee, Yasaman Bahri, Roman Novak , Samuel S. Schoenholz,
Jeffrey Pennington, Jascha Sohl-Dickstein (members of Google Brain) , ICLR 2018
https://arxiv.org/pdf/1711.00165.pdf

あるディープなL層のNNがあった時に、最終的にはそれに対応するガウス過程(以降GP)での回帰をするための共分散行列K{L} (カーネル?) を作れば、それで同じように学習・推論できるで、って話のようだ。
で、その最終的な共分散行列K{L}を得るためには (論文の2.5節参照) 、ざっくり言うと、NNを一段目から追って行って、それに合わせて F(ラージエフ) なる行列を求めて、それをなんかよくわからんけどよろしくそこまでに求めた共分散行列K{l - 1} (lはその時計算している?層)に反映していくというステップをL回やる、と。
あとは、GPでの普通のやり方?で K{L} を使って学習・推論(回帰?)すればよろしい、と。
で、この論文の contribution の一つは上の記事にも書いてあるけど、GPでの推論(回帰)に必要な共分散行列を、一つの共分散行列 K{l} に集約させることで、学習も推論もおおむね行列演算一発 (実際には一回では済まないけど、複数のKを扱う必要はない) ようにしたってことらしい。
 
評価に置いては、MNISTとCIFARに対するDNNと、それらに対応するGPのカーネル?モデル?を構成して、それでモデルの評価をしたら、DNNよりパフォーマンス良いときもあったで、とか書いてるので、結構まともな(?)DNNについても、対応するモデルが構成できるっぽい、です。
 
まあ、ちゃんと理解できたとは思わないですが、こんな感じでした。

しかし、GPって遺伝的プログラミング?って思っちゃうので、どっちか略記を変えた方がいいのではないかと思う(暴論)。

SonyのGUIでポチポチするだけでディープラーニングできる Neural Network Console が思っていた以上に良くできている件

最近知人が使ってみていて、それを聞いていくらか調査してみたんですが、Sony の Neural Network Console (以降、NNコンソール) 悪くないです。
コードを書かずにお手軽にディープラーニング試してみたい、ってことであればかなりおすすめです。
dl.sony.com

 
結構本格的なネットワークが組めるようですし(対応しているレイヤも結構豊富)、これで作った(ネットワークを構成して学習した)推論(予測)モデルを、Python で使って推論をする、とか、コマンドラインツールに食わせて推論をする、とかもできます。(学習時は少なくとも) GPUも使ってくれます。
GUI持ってるネットワークをポチポチするアプリ本体(?)はダメかと思いますが、それ以外のコマンドラインツールや、NNコンソールで作ったモデルを使ってあれこれするライブラリとかはLinuxでも動きます(自分が調べた限り)。

特に、作成したモデルを、ちゃんとライブラリやCLIツールで使えるようにしてるあたりが、(実用を前提とした場合)よく考えられているなと感心しました。
 
あと、基本的には全て(のはず)OSSで公開されているのもナイスです。
 
なお、GUIアプリ使わなくても、コマンドラインツールを使ってネットワーク設計(?)、学習もできるようです。
 
ネットワーク設計だけGUIアプリでやって、その結果をファイルに出力して、コマンドラインツールに読み込ませたうえで学習する、という形をとれば、学習処理を、AWSGPUインスタンスGoogle Corabolatory (GPUやTPU が搭載されてて、無料で使える機械学習クラウド) で、高性能なGPUを活用して行うということも可能なはずです。
 
ネットワークの設計って、Kerasなんかの抽象度を高くした?比較的利用難易度の低いライブラリを使っても、やれテンソルの次元が合わないだとなんだとか言われて、苦労したりするんですが(少なくとも私はそうだった)、NNコンソールがそこらへん親切にエラーとか出してくれるとか、よろしくつじつまが合うようにサポートしてくれる、とかなら、ネットワークの構成だけに使うというのも一考の価値があるかもしれません 。ONNXという多くのディープラーニングフレームワークがサポートしている共通規格のフォーマットで、設計したネットワークの構成情報をダウンロードすることもできるようです。

Scene Explorer Mac build

Environment

  • MacOS Mojave 10.14.4
  • Qt 5.12.3
  • clang++

$ clang++ --version
Apple LLVM version 10.0.1 (clang-1001.0.46.4)
Target: x86_64-apple-darwin18.5.0
Thread model: posix
InstalledDir: /Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin

  • xcode のツールセット?
    • /Library/Developer/CommandLineTools/SDKs/MacOSX10.14.sdk
  • ffmpeg

$ ffmpeg --version
ffmpeg version 4.1.1 Copyright (c) 2000-2019 the FFmpeg developers
built with Apple LLVM version 10.0.0 (clang-1000.11.45.5)
configuration: --prefix=/usr/local/Cellar/ffmpeg/4.1.1 --enable-shared --enable-pthreads --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags='-I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include -I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include/darwin' --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libmp3lame --enable-libopus --enable-librubberband --enable-libsnappy --enable-libtesseract --enable-libtheora --enable-libvorbis --enable-libvpx --enable-libx264 --enable-libx265 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-videotoolbox --disable-libjack --disable-indev=jack --enable-libaom --enable-libsoxr
libavutil 56. 22.100 / 56. 22.100
libavcodec 58. 35.100 / 58. 35.100
libavformat 58. 20.100 / 58. 20.100
libavdevice 58. 5.100 / 58. 5.100
libavfilter 7. 40.101 / 7. 40.101
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 3.100 / 5. 3.100
libswresample 3. 3.100 / 3. 3.100
libpostproc 55. 3.100 / 55. 3.100

  • ffprobe

ffprobe --version
ffprobe version 4.1.1 Copyright (c) 2007-2019 the FFmpeg developers
built with Apple LLVM version 10.0.0 (clang-1000.11.45.5)
configuration: --prefix=/usr/local/Cellar/ffmpeg/4.1.1 --enable-shared --enable-pthreads --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags='-I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include -I/Library/Java/JavaVirtualMachines/openjdk-11.0.2.jdk/Contents/Home/include/darwin' --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libmp3lame --enable-libopus --enable-librubberband --enable-libsnappy --enable-libtesseract --enable-libtheora --enable-libvorbis --enable-libvpx --enable-libx264 --enable-libx265 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-videotoolbox --disable-libjack --disable-indev=jack --enable-libaom --enable-libsoxr
libavutil 56. 22.100 / 56. 22.100
libavcodec 58. 35.100 / 58. 35.100
libavformat 58. 20.100 / 58. 20.100
libavdevice 58. 5.100 / 58. 5.100
libavfilter 7. 40.101 / 7. 40.101
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 3.100 / 5. 3.100
libswresample 3. 3.100 / 3. 3.100
libpostproc 55. 3.100 / 55. 3.100

Disclaimer

  • information above made MacOS build success at 2019/05/25
  • but I do not know in the future and I will not do maintanance of my forked repository

LL言語のGIL (グローバルインタプリタロック) がなぜあるか

 掲題の通り、LL言語のGIL (グローバルインタプリタロック)がなぜあるかという話。
 
 なお、以下は全てのLL言語で同様のことが言えるとは限らない、かつ私の認識が誤っている可能性もある、という disclaimer を初めに書いておきます。
(専門家の方々にいいかげんなこと言うな、とか叩かれそうですが、お手柔らかにお願いします・・・)
 
 要はLL言語のランタイム & 標準ライブラリ? の実装で利用しているライブラリ(ランタイムだったらlibcとか、標準ライブラリだったら、それらが内部で利用している、プラットフォームに存在する各種ライブラリ)の関数がスレッドセーフかどうかいちいち調べて対応する工数がパないからGILで解決してしまえ、って話のようである。
(普及してしまった段階においてGILの必要性について考える場合は、サードの提供するライブラリも考慮しないといけないでしょう)
 
 スレッドの実装が行われた時点で既にそうだったかは分からないですが、例えばPythonRubyなんかは多様なプラットフォームで動作する実装を提供しているので、合理的な割り切りだとは思います。そんなところではなく、他のところにマンリソースを割くべき、という判断でもあったのでしょう。なので、怠慢だ!とか単純にディスれる話ではないと思っています。
 
 あとは、仮にGILを使わなくて済む実装ができて(少なくともランタイム部分については)、標準ライブラリについても、"スレッドセーフではない可能性があります" とか、ちゃんとドキュメント化できたとしても、サードのライブラリが同様の対応をしてくれると期待するのは難しいだろうし、それが成されたとしても、スレッドを使うときに、利用する関数がいちいちスレッドセーフかどうかとか意識して、コードを書かないといけないというのは、LL言語のポリシー的なところとか、想定される利用者層、用途を踏まえると、ただ使いにくいだけ、になりかねないという判断もあった(ある)のかな、と思います。
 
 ただ、なんかもにょるな、ということが言いたかっただけです。はい。
 
 ちなみに、Rubyで言うと、MRI ( Matzらのリファレンス実装 ) は GIL がありますが、JavaによるRuby実装である JRuby は GILが無いそうです 。あとは、詳しくは知らないですが、 Rubinius という処理系も無いそうです。JRubyなんかは以前から存在を知っていましたが、最近、GILが無いというのを知って、結構衝撃を受けました。
 なお、JRuby や Rubinius という GIL の無い実装が存在するからといって、MRI も簡単に GIL を無くせると言っているわけでも、思っているわけでもないです。そこは強調しておきます。
 
追記:
CやらC++やらだとメモリモデルがちゃんと定められてなくてつらたん、って事情もありそうですね。
https://www.ibm.com/developerworks/jp/java/library/j-jtp02244/index.html

これとは対照的に、CやC++といった言語には明示的なメモリ・モデルはありません。