読者です 読者をやめる 読者になる 読者になる

いものやま。

雑多な知識の寄せ集め

技術

『OS自作入門』を読んでみた。(その3)

前回からだいぶ間が空いてしまったけど、続き。 前回はディレクティブを使ってただデータを作っただけだったけど、それではアセンブラを使ったとは言い難いので、今回はちゃんとしたアセンブラを書いてみる。 ちゃんとしたアセンブラのコード と言うことで早…

『OS自作入門』を読んでみた。(その2)

前回はVimをバイナリエディタとして使って直接フロッピーディスクのイメージを作った。 今回はアセンブラを使ってフロッピーディスクのイメージを作ってみる。 Binutilsのインストール 本ではNASMに似たnaskという著者作のアセンブラを使ってるけど、やっぱ…

『わかばちゃんと学ぶ Git使い方入門』を読んでみた。

ツイッターを見ていたら、社畜ちゃんで有名なビタワンさんの次のツイートが。 閉店ギリギリの本屋に駆け込んで、湊川あい(@llminatoll )さんの「わかばちゃんと学ぶGit 使い方入門」を買ってきた!これからGitを覚える人は是非!うろ覚えで今から復習した…

『OS自作入門』を読んでみた。(その1)

前回、『30日でできる! OS自作入門』を読んでいることをちょこっと書いた。 30日でできる! OS自作入門作者: 川合秀実出版社/メーカー: 毎日コミュニケーションズ発売日: 2006/03/01メディア: 単行本購入: 36人 クリック: 735回この商品を含むブログ (299件)…

MacでQEMUのビルドをしてみた。

最近、『30日でできる! OS自作入門』を読んでる。 30日でできる! OS自作入門作者: 川合秀実出版社/メーカー: マイナビ出版発売日: 2006/03/01メディア: Kindle版この商品を含むブログを見る この本自体はだいぶ昔に買っていたんだけど、分厚いので完全に積…

『熱血!アセンブラ入門』を読んでみた。

『熱血!アセンブラ入門』を読んでみたので、感想とか。 熱血! アセンブラ入門作者: 坂井弘亮出版社/メーカー: 秀和システム発売日: 2015/06/12メディア: Kindle版この商品を含むブログを見る 購入に至るまで この本を初めて見たのは、近くのショッピングモ…

輪行するなら知っておきたいテクニック。

自転車で遠出するなら、覚えておきたいのが輪行。 輪行が出来れば、電車で遠くまで移動してから自転車に乗ることも出来るし、あるいは逆に、遠くまで自転車で走っていって、そこから電車で帰ってくるといったことも出来る。 あまり起きて欲しくないけど、も…

MacにErlangをインストールしてみた。

最近、関数型言語に関してちょっと思うところがあって、いろいろ勉強中。 といっても、モナドとかではなく、並列性に関して。 それについてはまた別の機会に書くとして、今日はそれに関係してErlangをMacに入れてみたので、それについて。 全体の流れ 最初に…

Javaで動画作成ツールを作った話。(その1)

自分はニコニコ動画にいくつかボードゲーム動画を上げてるんだけど、動画を作るときに使っている自作ツールの話を少ししようかなと。 ちなみに、ツールの名前はMSC。 Movie-create-tool by Script and Commandの頭文字をとってMSCーーというのは建前で、実際…

Mac用とiOS用のフレームワークを作ってみた。

以前、強化学習用のニューラルネットワークをSwiftで書いていた。 ここで最後に触れた問題が、これ。 NSKeyedArchiver/NSKeyedUnarchiverでオブジェクトをエンコード/デコードすると、クラス名が(モジュール名).(クラス名)となるため、ある実行ファイルで保…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その8)

前回は○×ゲームをSwiftで実装した。 今日はSarsaComの実装。 なお、Rubyでの実装は、以下を参照: SarsaComクラス ということで、さっそく。 //============================== // TicTacToe //------------------------------ // SarsaCom.swift //========…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その7)

昨日はValueNetworkの保存とロードの実装をした。 (ただ、いろいろ問題があったので、後で修正する予定) これで実際に学習をするために、今日は○×ゲームをSwiftで実装する。 Markクラス まずはマークを表すMarkクラスから。 enumで実装するのも一つの手だ…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その6)

昨日は強化学習用のHMEの実装を行った。 今日はそれらのデータの保存とロードが出来るようにする。 (2016-04-08追記:いろいろ問題があったので、大幅に修正する予定) NSKeyedArchiver、NSKeyedUnarchiver データをファイルに保存し、ロードする一つの方法…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その5)

昨日は強化学習用のHMEの計算を行列で表現した。 今日はそれを使って実際に実装していく。 なお、Rubyでの実装は、以下を参照: GateNetworkクラス まずはゲートネットワークの実装。 //============================== // ValueNetwork //-----------------…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その4)

昨日は強化学習用のニューラルネットワークの実装を行った。 今日はHMEの実装を行うために、同様にHMEの計算を行列で表現していく。 強化学習用のHMEの計算 ここでは、HMEへの入力を 、出力を とする。 また、エキスパートネットワーク の出力を 、パラメー…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その3)

昨日は強化学習用のニューラルネットワークの計算を行列で表現した。 今日はそれを使って実際に実装していく。 なお、Swiftでの行列演算については、以下を参照: ここで定義したMatrixクラス、Vectorクラスを使っていくことになる。 また、Rubyでの実装は以…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その2)

昨日は乱数生成器の実装を行った。 今日は強化学習用のニューラルネットワークの計算を行列で表現する。 強化学習用のニューラルネットワークの計算 説明を簡単にするために、ここでは次のようなニューラルネットワークを考える: 3層ニューラルネットワーク…

強化学習用のニューラルネットワークをSwiftで書いてみた。(その1)

強化学習の関数近似にニューラルネットワークを組合せるということをやってきていた。 強化学習については以下から: ニューラルネットワークについては以下から: 複数のニューラルネットワークを組合せるHME(Hierarchical Mixtures of Experts)について…

Swiftでの行列計算について調べてみた。(まとめ)

これまでの各記事は以下から。 行列、ベクトル、Splatの生成 Swiftでの行列計算について調べてみた。(その1) - いものやま。 Swiftでの行列計算について調べてみた。(その2) - いものやま。 行列、ベクトルの演算 Swiftでの行列計算について調べてみた。…

Swiftでの行列計算について調べてみた。(その4)

昨日は行列とベクトルの演算について説明した。 今日はもうちょっとスマートな書き方が出来るようにするために、ラッパークラスを作っていく。 Matrixクラス まず、行列を表すMatrixクラスの実装。 なお、途中に出てくるVectorクラスはMatrixクラスを継承し…

Swiftでの行列計算について調べてみた。(その3)

昨日はベクトルとSplatの説明をした。 今日はこれらを使った演算について。 転置 まずは転置。 次の関数が用意されている: // 転置した行列を生成して返す。 la_object_t la_transpose( la_object_t matrix); // 行列 スカラー倍 次はスカラー倍。 // スカ…

Swiftでの行列計算について調べてみた。(その2)

昨日はAccelerateフレームワークの概要と、行列の生成と内容の取得について説明した。 今日はベクトルとSplatについて。 ベクトルの生成 ベクトルといっても、実際には1行もしくは1列の行列。 ただ、扱いやすいように、いろいろマクロや関数が用意されている…

Swiftでの行列計算について調べてみた。(その1)

ニューラルネットワークの実装をするときに必要となるのが、行列計算。 もちろん、Arrayを使ってベタに実装してもいいんだけど、それだと速度が気になるところ。 調べてみると、Accelerateフレームワークを利用するといいようだったので、少し調べてみた。 …

端末でGitを使いやすくする。

Gitには、端末での操作を楽にするためのツールが用意されている。 今日はそれらの紹介。 なお、シェルはBashを使っているという前提。 プロンプトに現在のブランチを表示する Gitのワークツリーで作業をしているとき、GitはSubversionとは違ってブランチを頻…

Curses for Ruby。(まとめ)

これまでの各記事は以下から。 インストールと動作確認 Curses for Ruby。(その1) - いものやま。 cursesライブラリの初期化・終了と、構成要素 Curses for Ruby。(その2) - いものやま。 ウィンドウの描画について Curses for Ruby。(その3) - いもの…

Curses for Ruby。(その6)

昨日は文字の入力について説明した。 基本的な内容はこれで終わりなんだけど、出力する文字を修飾したり、色をつけたい場合もあるかと思うので、今日は出力する文字の修飾について説明していく。 出力文字の修飾 出力する文字に修飾をつけたい場合、属性を指…

Curses for Ruby。(その5)

昨日はウィンドウの位置と移動について説明した。 今日は文字の入力について。 文字の入力と入力モード 通常、文字の入力はバッファリングされ、Enterキーを押された時点で初めてユーザプログラムにはデータが渡される。 しかし、それではCUIアプリケーショ…

Curses for Ruby。(その4)

昨日はウィンドウの生成・削除と描画について説明した。 今日はウィンドウの位置と移動について説明する。 ウィンドウの位置と移動 ウィンドウは、位置を変えたりサイズを変更したりすることが可能。 まず、ウィンドウの位置を取得するには、以下のメソッド…

Curses for Ruby。(その3)

昨日はcursesライブラリの基本的な内容について説明した。 今日はウィンドウの生成・削除と描画について。 ウィンドウの生成・削除 ウィンドウは、画面に出力する文字情報を持った矩形の領域。 Cursesでは、ウィンドウに対して文字を追加・削除する操作を行…

Curses for Ruby。(その2)

昨日はcursesライブラリの動作確認まで行った。 今日はcursesライブラリの基本的な内容について。 cursesライブラリの初期化・終了処理 cursesライブラリを使う場合、まず初期化が必要となる。 cursesライブラリを初期化するには、次のモジュール関数を呼び…

Curses for Ruby。(その1)

以前、noteに書いた記事だけど、こちらにも。 CUIのアプリケーションを作るときによく利用されるのが、Cursesというライブラリ。 Rubyの場合、準標準ともいえるcursesライブラリがあり(※1.9.3までは標準添付ライブラリ)、これを使うのが一般的だと思う。 …

wpコマンドの紹介。

昨日、Screenの紹介をした。 それに関連して、wpコマンドを紹介したい。 別の仮想端末と同じディレクトリに移動したい Screenを使っていてよくあるのが、「別の仮想端末と同じディレクトリに移動したい」ということ。 そんなときに使えるのが、wpコマンド。 …

Screenのススメ。

プログラムをするとき、長時間を過ごすことになる端末。 このとき、一つのウィンドウ、一つのディレクトリだけで作業していると、何かと不便。 かといって、何個もウィンドウを開いたりすると、煩雑。 Macのターミナルの場合、タブを使うことも出来るけど、…

強化学習とニューラルネットワークを組合せてみた。(まとめ)

これまでの各記事は以下から。 イントロ 強化学習とニューラルネットワークを組合せ中。 - いものやま。 ○×ゲームの実装 強化学習とニューラルネットワークを組合せてみた。(その3) - いものやま。 テーブル型Sarsa()法の実装 強化学習とニューラルネット…

強化学習とニューラルネットワークを組合せてみた。(その15)

昨日は関数近似にHMEを使ったSarsa()法の実装を行った。 今日はそれを使って実際に学習を行ってみる。 HMEの構成 学習を行うにあたって、HMEの構成は、TD Learning of Game Evaluation Functions with Hierarchical Neural Architecturesとほぼ同じ構成にし…

強化学習とニューラルネットワークを組合せてみた。(その14)

昨日は関数近似のためのHMEの実装を行った。 今日はいよいよHMEを関数近似に使ったSarsa()法の実装。 ファイルの整理 ただ、いざ実装しようと思うと、違ってくるのは関数近似の部分だけで、それ以外はまったく同じ。 なので、ちょっとバカらしい感じが。 そ…

強化学習とニューラルネットワークを組合せてみた。(その13)

昨日はゲートネットワークの実装を行った。 今日はそれを使って関数近似のためのHMEの実装を行う。 ValueHMEクラス 関数近似のためのHMEをValueHMEクラスとして実装していく。 #==================== # value_hme.rb #-------------------- # 価値ベクトルを…

強化学習とニューラルネットワークを組合せてみた。(その12)

昨日はHMEを強化学習の関数近似に使うときの勾配計算について説明した。 今日からは実際にRubyで実装を進めていく。 まずはゲートネットワークの実装から。 GateNNクラス ゲートネットワークをGateNNクラスとして実装していく。 #==================== # gat…

強化学習とニューラルネットワークを組合せてみた。(その11)

前回はドロップアウトを実装したニューラルネットワークを強化学習の関数近似に使う実験をした。 けど、結果としてはうまくいかなかった。 そこで、次はHMEを強化学習の関数近似に使うのを試してみる。 HMEについては、以下を参照: HMEの出力の重みに関する…

HMEについて学んでみた。(まとめ)

これまでの各記事は以下から。 HMEの構造と出力の計算 HMEについて学んでみた。(その1) - いものやま。 HMEでの学習 HMEについて学んでみた。(その2) - いものやま。 HMEの出した結果 HMEについて学んでみた。(その3) - いものやま。 HMEの構造 HMEは…

HMEについて学んでみた。(その3)

昨日はHMEでの学習について説明した。 これでHMEについての説明自体は終わりなんだけど、せっかくなので、論文内で言及されているHMEの成果についても。 参照している論文は、以下のもの: TD Learning of Game Evaluation Functions with Hierarchical Neur…

HMEについて学んでみた。(その2)

昨日はHMEの構造と出力の計算について説明した。 今日はHMEでの学習について説明する。 HMEでの学習 HMEでの学習は、HMEを一種の混合分布モデルとみなして、尤度が最大になるように学習を行う。 ・・・ということみたいなんだけど、これをまだ自分がちゃんと…

HMEについて学んでみた。(その1)

○×ゲームに対して、強化学習にニューラルネットワークを組み合わせるということをやってきた。 その中で、複数のインスタンスを同時に学習していくのは、ある程度有効だということが分かった。 ただし、それらの結果を組み合わせる方法が必要という話になっ…

端末とエスケープシーケンスの話。

昔のブログで書いた記事から。 書いたのは2010年9月26日。 事の起こり 会社でscreenを使い出すようになって、じゃあ家でもscreenを使えるようにしようと思い、ついでにbashのプロンプトも会社で使っているのと同じにしようと思って、会社での設定を自分のPC…

強化学習とニューラルネットワークを組合せてみた。(その10)

昨日はドロップアウトの実装を行った。 今日はそれで実際に学習を行ってみた。 中間層のユニット数: 128、ドロップさせるユニット数: 32 まず、中間層のユニット数を128、ドロップさせるユニット数を32にして、1,000,000回、2,000,000回、3,000,000回、学習…

強化学習とニューラルネットワークを組合せてみた。(その9)

昨日は複数のインスタンスを同時に学習するということを試してみた。 これ自体は有効に思われ、あとは複数のインスタンスの出す結果をどうやって統合するのかが課題になった。 その方法の一つとして考えられる、ドロップアウトの実装を行ってみた。 なお、ド…

強化学習とニューラルネットワークを組合せてみた。(その8)

昨日は中間層のユニット数を増やす実験をしてみた。 大体うまく動いていたけど、そこで出た課題として、自己対戦だと局所的な戦略に特化してしまって、他の場面に出くわしたときにうまく動けないことが多いようだった。 そこで、複数のインスタンスを用意し…

強化学習とニューラルネットワークを組合せてみた。(その7)

昨日はパラメータをいろいろ変える実験をやってみた。 結論から言えば、そもそも学習がうまくいっていない感じだった。 そして、論文をちょっと調べてみると、○×ゲームに対して関数近似にニューラルネットワーク(+α)を使うものだと、中間層のユニット数に8…

強化学習とニューラルネットワークを組合せてみた。(その6)

昨日は関数近似にニューラルネットワークを使ったSarsa()法を実装してみた。 けど、うまくいかなかったので、いろいろパラメータを変えてみるということをやってみた。 パラメータテスト パラメータとして調整しないといけないものは、次の4つ: 中間層のユ…

強化学習とニューラルネットワークを組合せてみた。(その5)

昨日はテーブル型のSarsa()法の実装を行った。 今日はいよいよ関数近似にニューラルネットワークを使ったSarsa()法の実装してみる。 NNSarsaComクラス 関数近似にニューラルネットワークを使ったSarsa()法のクラスは、NNSarsaComクラスとした。 #===========…