gggggraziegrazie

graizegrazieさんのやったこと、学んだことを記録する雑記帳です

under-determinedなシステム

under-determinedなシステムとは、変数の数に対して制約事項が足らないシステムのことです。参考文献のwikipediaを見ると、Fig.1の様な連立方程式があります。under-determinedなシステムでは、必ずしも解が求まるとは限りません。解が求まる場合は、ガウスの消去法[4]などを使って求めることが出来ます。

f:id:graziegrazie:20171001091141j
Fig.1 under-determinedなシステムの例[1]

# 参考文献
[1]Underdetermined system - Wikipedia
[2]http://www.ue.pwr.wroc.pl/numerical_methods_lectures/NM_Underdetermined_problems.pdf
[3]http://www.tapir.caltech.edu/~rom-gr/slides/Justin_Romberg.pdf
[4]
ガウスの消去法 - Wikipedia

Lpノルムとマンハッタン距離、ノルム

{L_p}ノルムとは、{n}次元のベクトル{\overrightarrow{x}=(x_1,x_2,\cdots, x_n)}および{1\leq p\leq \infty}なる{p}に対して、
{\sqrt[p]{ x^p_1 + ... + x^p_n }}
で表され、{\| \overrightarrow{x}_p \|}と表記する[1]。

そもそもノルムとは、

任意のベクトル{x, \  y}と定数[tex:{a}があるとき、下記の3つの性質を満たす関数のこと。

  • {\|\overrightarrow{x}\|=0\iff \overrightarrow{x}=0}
  • {\|a\overrightarrow{x}\|=|a|\|\overrightarrow{x}\|}
  • {\|\overrightarrow{x}\|+\|\overrightarrow{y}\|\geq \|\overrightarrow{x}+\overrightarrow{y}\|}(三角不等式)

マンハッタン距離

{p=1}の時、つまり{L_1}ノルムはマンハッタン距離とも言われる。マンハッタンが碁盤目状になっており、2地点間の距離を北に○ブロック、東に△ブロックという表現することに由来している。べき乗しないため外れ値に対してロバストだ[3][4]、と書かれているが、イマイチ理由はわからない。。数式では下記の様に表現する。
{|x_1|+|x_2|+\cdots +|x_n|}

f:id:graziegrazie:20170827111208p:plain
Fig. マンハッタン距離の概念図[2]

ユークリッド距離

{p=2}の時、つまり{L_2}ノルムはユークリッド距離とも言われ、2点間の直線距離を表す。一般的な表現のため詳細は割愛。

Kaze特徴量

Kazeは、非線形拡散フィルタを用いて算出する特徴量。SIFTやSURFなどのガウシアンフィルタ(線形拡散フィルタ)を使った特徴量は、物体のエッジ部分がぼやけてしまい、局所的な特徴がうまく取れないことがあった。それに対し、非線形拡散フィルタを使うKazeは、非等方的な計算を行うためにエッジ部分がぼやけず、局所的な特徴が取りやすくなっている。非線形拡散フィルタとしては、Additive Operator Splitting (AOS) を使っている。

一般物体認識と特定物体認識

一般物体認識とは、画像中に存在する物体について、「魚」などのカテゴリー名を特定する技術である。
f:id:graziegrazie:20170729210614p:plain
Fig. 一般物体認識の認識結果例[2]

それに対し特定物体認識とは、画像中から一意に特定できる物体を検出する技術である。例えば「あべのハルカス」などのランドマーク、「Nitendo Switch」などの大きな個体差のない工業製品などが対象である。

ヒューリスティックアルゴリズム

ヒューリスティックアルゴリズムと聞くことがあるが、何を意味するのかずっとわからないままだった。そのため今回ヒューリスティックアルゴリズムが何を指すのか調べて見た。その結果、

だとわかった。つまりヒューリスティックアルゴリズムとは、経験則から導き出した・考え出したソフトウェアの処理手順・方式である。

フィッシャーの情報量(情報行列)

(シャノンの)情報量

 情報量といった場合、シャノンの情報量を指すことが多い。そもそも情報量とは、ある事象が起こった時、その事象の発生がどれだけ珍しいかを表す量である。事情が珍しい程、値は大きくなる。実生活においても、珍しい出来事が起こった場合、そのインパクトは大きい。そのため、直感的にも納得しやすい定義に感じる。
 情報量には「自己情報量」と「平均情報量」があり、それぞれ

  • 自己情報量:

 ある事象xについての情報量で、下式(1)で表現される。
 {I(x) \  = \  -log_2(P(x)) \tag{1} }
 ここで{P(x)}は事象の発生確率を表すものとする。

  • 平均情報量:

 ある確率分布についての情報量で、下式(2)で表現される。エントロピーとも言われる。
 {\displaystyle H(P) \  = \  - \sum_{x \in \Omega} P(x) log_2(P(x)) \tag{2} }

フィッシャー情報量(情報行列)

 一方フィッシャー情報量とは、シャノンが定義した情報量とは異なり、尤度に注目した情報量である。対数尤度関数の二階の導関数の値の絶対値で表し、値が大きいほど情報量が高い(珍しい)となる。事象が1変量の場合は、"情報量"と呼称する。事象が多変量の場合は、"情報行列"となる。