TeXですく数行にまたがった図を貼る方法
下記の様に、*を付けるとできる。
\begin{figure*}
\end{figure*}
Dockerで0からコンテナ接続までのコマンドの流れを図にしてみた
Docker初心者のため、どのコマンドを使えばどうなるかの関係がイマイチ覚えづらいです。また少し使った後にしばらく間が空くと、完全に流れを忘れてしまうのが悩みでした。そこで流れを図にしてみました。今回の対象は、pull, build, create, run, start, stop, attach, execです。
間違っていたり、付け加えた方がよい情報などありましたら教えていただけますと幸いです。
NDT( Normal Distributions Transform )
NDT[1]とは、2つの点群のマッチングをさせる手法の1つです。点群マッチングとは、ある点群(参照点群と呼ぶ)に対し、ある点群(入力点群と呼ぶ)がどれだけ重なっているか、重ねるためには点群をどの様に移動させるべきかを判断するための手法です。点群マッチングの手法としては、他にICP(Iterative Closest Point)があります。ただしICPは、入力点群の各点が参照点群に対してどれだけ離れているかを計算する必要があります。そのため、入力点群の数が多くなるほど計算量が増えるという問題があります。
これに対してNDTは、ボクセルやグリッドを使って点群が存在する空間を等間隔に分割するし、ボクセル又はグリッド毎に求めた正規分布を使って点群の表現、マッチングを行うため、計算量を削減することができます。正規分布の計算方法は下記の通りです。
①各ボクセル又はグリッド毎に、点群の平均座標を求める
②求めた平均座標を使い、共分散行列を求める
③この平均座標と共分散行列を元に、点群を正規分布で表現する
イメージとしては、下記のスライドと画像が参考になるかと思います。
このスライドはソースはここ
そしてスライドの大元のソースはここ
出典:田窪ら, "高解像度NDTグリッドマップを用いた環境地図生成", 日本機械学会論文集(C編)78巻793号, 2012
点群のマッチングは、
- : 入力点群の座標系から見た参照点群の座標系の相対座標。
- : 入力点群座標系から参照点群座標系への変換行列
- : 入力点群中の点の座標(生データ)。
- : 入力点群を参照点群の座標系に変換した後の入力点群中の点の座標。つまり、。
- : 変換後の入力点群の共分散と平均座標。共分散と平均は各ボクセル又はグリッド毎に計算することに注意。
このとき、下記の関数score(p)を使って点群同士がどれくらいマッチングしているかを評価する。
出典:[1]
SLAM等のアプリケーションでNDTを使い、この評価関数の値が低い場合は、参照点群と入力点群が重なる(つまり地図と現在得た点群がマッチする様に調整し、自己位置を見つける)ように、pの位置を調整していく。調整アルゴリズムについては[1]を参照のこと。
install scikit-sparse on win7(halfway)
コレスキー分解をWindowsのPython環境で使いたかったので、上記を試してみました。pip install自体は通ったのですが、目的であるコレスキー分解はまだ動いていませんが。。。
手順
1. このページからzipをダウンロード
*pip install scikit-sparseとしてもよいのですが、後程出てくるglobal-optionを使っている間に、なぜかzipからのインストールにしてしまいました。。
2. このページを参考にscikit-sparseに必要なSuiteSparseのコンパイル
3. python -m pip install -e scikit-sparse's_directory_path --global-option=build_ext --global-option="-ICHOLMOD's_header_path;SuiteSparse's_header_path" --global-option="-LSuiteSparse's_lib_file_path" --global-option="-lsuitesparseconfig metis amd btf camd ccolamd colamd cxsparse klu ldl spqr umfpack liblapack libblas"
斜体の部分は適宜自分の環境にあったパスに変えてください
*pipを使ってファイルからモジュールをインストールする際の方法はこちらを参考にしてください。
*global-optionについては、ここを参考にしてください。
ただこれだけだと、scikit-sparseのimport(import sksparse)は可能ですが、"from sksparse import cholsky"は出来ませんでした。
"図解・ベイズ統計「超」入門 あいまいなデータから未来を予測する技術"を読んで
従来の統計学とベイズ統計学の違い
- 従来の統計学
- データについての不確実性を確率で表現・推論する統計学
- データが少ないと使い勝手が悪い
- パラメータや仮説の不確実性を確率で表現・推論する統計学
- データ数に依らず議論が可能
イメージとしては下図のようになる。
乗法定理
同時確率を条件付き確率の積で表せる。例えばN回目の確率はN-1回目の確率を使って表現できる。これを図で示すと下図のようになる。
ベイズの定理
図に表すと下記の通りで、Bを基準に考えていた確率を、Aを基準に考え直すことができる。ベイズの定理を日本語で表すと、
だが、これをと置き換えると、
とできる。
例題1.
4/1が晴れ, 曇り, 雨の確率はそれぞれ0.3, 0.6, 0.1であり、4/2が雨の確率は、4/1が晴れ, 曇り, 雨の時それぞれ0.2, 0.5, 0.4とする。このとき、4/2が雨でかつ4/1が曇りの確率を求めよ。
ベイズの定理を使うコツ=とにかく分解すること
従って求める確率は
となる。分母の値(データが得られる確率)が直接与えられない場合は、このようにして求める。
|
|
理由不十分の原則
確かな情報がない場合は、適当な値をセットできる
ベイズ更新
新旧データ或る時に、旧データから得られた事後確率を新データの事前確率として利用すること
例題2.
ケンの彼女K子がケンを好きな確率は?
この問題では、心を確率モデル化してみる。心には2種類の因子があり、それらを「愛」・「憎」とする。このとき、
K子の心情 | 嫌い | ふつう | 好き |
---|---|---|---|
愛 |
1 |
2 |
3 |
憎 |
3 |
2 |
1 |
デートの印象が悪い → 「憎」が引かれた
デートの印象が良い → 「愛」が引かれた
*引かれた「愛」・「憎」は元に戻る。つまりそれぞれの感情において、「愛」・「憎」の数は常に一定とする。
最近2回のデートの印象は、順に「良」・「悪」であったとする。
1回目のデートで良を得る確率
D=1回目のデートで良を引く
H=K子がケンを好き
|
|
K子がケンのことが好きかの事前情報はないので、理由不十分の原則から「好き」・「ふつう」・「嫌い」は各1/3の確率とするのが一般的である。しかしケンはK子と直に接していることから、ケンの実感を採用することが出来る。これは明確な根拠がないため、各心情である確率をを1/3するよりもケンの経験を根拠にしていることから、精度は高そうである(勿論本人が勘違いをしている可能性は捨てきれないが。。。)。このようにベイズ確率では、経験のような根拠の薄い情報を考慮できるという柔軟さがある。
その結果、となる。次に1回目を踏まえた2回目の結果を求める。
事前準備
1回目のデートの結果を踏まえ、
をそれぞれ求める。結果は、
嫌い | ふつう | 好き |
---|---|---|
0.04 | 0.24 | 0.72 |
よって2回のデートの結果、K子がケンに対して抱いている感情は、
確率分布
例題3.
表の出る確率がのコインがあり、3回投げると
- 1回目 表
- 2回目 表
- 3回目 裏
と出た。この時の確率分布を求めよ。
この場合、データは「表」が出ること、仮説は「表」の出る確率がとなる。よって求める確率は、
ここで"「表」の出る確率が"という文言を"のコイン"と置き換えると、上記は
ベイズの定理の左辺は原因が発生する確率
は定数のためと置く
- 尤度 :
- 事前確率:1(理由不十分の原則)
よって
となる。
より、
となる。2回目の事後分布は、
1回目と同様にしてとなる。3回目は裏が出たので、
であり、
*参考文献
「頻度論」の学者と「ベイズ論」の学者が対談したら | 『統計学が最強の学問である[実践編]』発刊記念対談 | ダイヤモンド・オンライン
NVIDIA製GPU搭載のハイスペックノートPCを探してみた
画像処理などをリアルタイムで行いたい場合、CPUはもちろん、ハイスペックなGPUが搭載されているとストレスがないです。またDeep Learningなどの機械学習を行う場合、OSSのライブラリはCUDAが必要なことが多い気がします。CUDAのインストールには、NVIDIA性のGPUが必要です。そこでNVIDIA製GPUを搭載可能なハイスペックノートPCを探してみました。
探索条件
・メーカ:Lenovo, HP, Microsoft, マウスコンピュータ
・CPU: core i7
・メモリ:20GB以上
・サイズ:13~14インチ(持ち運び製を考慮して)
・重量:1.5kg以下
結論としては、個人的に好きなLenovo、そしてHPは上記の条件を満たすPCはなかったです。Surfaceとマウスコンピュータがいい感じでした。Surfaceの方がデザインが好きなのですが、いかんせん高いのがたまにキズ。。。