SlideShare a Scribd company logo
サポートベクターマシン(SVM)の
数学をみんなに説明したいだけの会
上原賢祐 @kenyu0501_
 山口大学大学院 博士課程/ 学術研究員/
最近のトピック

 人工知能の検定(g検定)に合格
したので,AIに関するマウント
がとれるようになりました.
ゼミ第2回 20190516
撮影,ソーシャル,自己使用,全部OK
今回のゼミの目的とコンテンツ
・機械学習の大枠をざっくりと理解すること ・・・10%
・SVMの数学的背景を理解すること ・・・80%
・SVMを実際に使用できるようになること ・・・10%
・機械学習とは!?
・機械学習の位置付け
・機械学習のアルゴリズム(教師あり VS なし)
・SVMは教師あり学習
・デモンストレーション:身近なSVM
・ベクトルの復習
・線形学習マシンの数学:ハードマージン→ソフトマージンへ

・主問題 VS 双対問題:線形から非線形SVMへの拡張
・特徴空間への写像,カーネルの導入
目的
めっちゃ数学!
内容
機械学習(Machine Learning)とは!?
トレンド
Google トレンド
機械学習がじわ伸びしている理由
・ディープラーニングでは大量の
 データが必要になる
・計算リソースが必要になる
・個人がなかなか実装しにくい
「データを反復的に学習して,ある法則を見つけること」
ディープラーニングはこういった障壁がある
・少量のデータで実装できる
(SVMでは交差検証などの手法もある)
・入出力関係の関数(統計理論に基づく)
・計算リソースはそこまで必要ではない
・個人で実装が容易である
人気っすよ
人工知能からみた機械学習の位置付け
振る舞いが決められているもの人工知能の4つのレベル分け
Level 1
Level 2
Level 3
Level 4
シンプルな制御プログラム
古典的な人工知能
機械学習
ディープラーニング
On-Off 制御
PID制御
(Proportional-Integral-Differential)
ある特定の環境に限定した場合のみ,
複雑な動きができる
入出力の関係を学習したもの.
入力に特徴量という人間が
設定する概念がある.
特徴量自体を自動で学習できる
あらゆる条件に対応した動作や制御系の
組み合わせ
サポートベクターマシン
決定木 などなど
ニューラルネットワーク
RNN, CNNなど
機械学習のアルゴリズム:教師あり,教師なし,半教師,強化学習
機械学習
教師あり学習 教師なし学習
半教師あり学習 強化学習
ラベル付きデータを用いて入出力間の
関数を作る
ラベルなしのデータから隠れた構造を
記述する関数を作る
ラベル付きと無しの両方のデータを用
いて入出力間の関数を作る
ある環境内で行動の価値を最大化する
ような動作を決める関数を作る
・回帰 (線形回帰,ベイズ回帰)
・分類 (SVM,決定木)
・クラスタリング
 (K-means法,混合正規分布モデル)
・情報圧縮 (PCA,特異値分解)
・分類
(半教師ありk近傍法グラフ,   
  半教師あり混合ガウスモデル)
・ゲーム,制御,推定
 (Q-learning,Sarsa)
機械学習のアルゴリズム:教師あり サポートベクターマシンSVM
古典的な制御
入力
プログラム コンピュータ
出力
入力
出力 コンピュータ
プログラム
教師あり学習
機械学習
サポートベクターマシン
入出力データのパターンを
コンピュータに探してもらう
SVMがはじめに使われた課題:手書き文字認識
アメリカ郵政サービス:手書き郵便番号を認識して,自動仕分けする課題
V. Vapnik, Statistical Learning Theory, Springer-Verlag (1995).
実装demoあり
手書き文字入力 数字出力機械学習の実行
SVM
(NN etc.)
1. コールセンタ
2. 郵便物仕分け
3. 電話交換手
現在,機械に代替される
と予想されている仕事 Best 3
「RaspberryPiではじめる機械学習」
を参考にしました
分類器
→内側の処理をざっと説明.
→SVMにより分類器を作成して,実際に手書き
 文字認識を行うことができるかどうかのテスト.
デモンストレーションの内容
4
3
2
7
6
015
8
9
0 0 5 13 9 1 0 0
0 0 13151015 5 0
0 3 15 2 0 11 8 0
0 4 12 0 0 8 8 0
0 5 8 0 0 9 8 0
0 4 11 0 1 12 7 0
0 2 14 5 1012 0 0
0 0 6 1310 0 0 0
SVMがはじめに使われた課題:手書き文字認識
拡大
7がちょっと異質だと思いますが,
世界的にはこの形態が主流
特徴量 (8 × 8ピクセル)
0:白 → 15:黒
特徴量を持ったベクトルをターゲット毎に
着色して分布を確認してみる
主成分分析pcaという次元を落とす手法(64→3次元へ)
を使いますが,ここでは説明を省きます!
Principle Components Analysis
手書き数字(オープンアクセス) 43名分の手書き数字1797個
機械学習ライブラリScikit-learnより入手
各数字における
特徴量の分布のばらつき
SVMがはじめに使われた課題:手書き文字認識
「RaspberryPiではじめる機械学習」
を参考にしました
SVMを用いることによって,
手書き文字の認識ができるよ
線形学習マシンの数学
K2
K1
K2
K1
Question:どっちの境界の方が,二つのクラスを分類する線として優秀か?

     また,なぜそう思ったか?
分離境界を引くときには,マージン最大化という最適化問題を解く.

SVMはなるべく大きなマージンを計算するための手法である.
この最適化問題の立式,実用上の式展開を行って,実際に使ってみる
ベクトルの復習:幾何学的表現から代数的表現へ
r
θ
x
y
(r, θ)x1x
x1x (x, y)
有向線分から座標系の成分へ
代数的概念だと
ベクトルを使った
和差内積の演算が容易
地理座標系-wikipedia
(https://ja.wikipedia.org/wiki/地理座標系)
各国も緯線と経線の
情報を持つベクトル
社会人のためのデータ分析入門 第5回
(https://amusement-japan.co.jp/article/detail/10000149/)
マックとパチンコの
情報を持つベクトル
(10万人あたり)
こういったものも
ベクトル
特徴量 1
特徴量2
線形分離可能
K2
K1
特徴量 1特徴量2
K2
K1
線形分離不可能
ハードマージン ソフトマージン
ハードマージンよりも賢明なSVMSVMの取っ掛かりに良い
線形学習マシンの数学:ハードマージン
特徴量 1
特徴量2
サポートベクトル
サポートベクトルマージン最大化
(矢印部の長さ)
wT
x + b = 0
K2
K1
直線より下にあるデータは
クラス2に属する
直線より上にあるデータは
クラス1に属する
wT
xi + b > 0wT
xi
wT
xi + b < 0
xi ∈ K1
wT
xi xi ∈ K2
となるデータxの集合
線形分離可能なデータ
分類境界である直線(超平面)の方程式をこのように定義する
ラベル変数 ti を導入して,0より大きい形に!
ti(wT
xi + b) > 0wT
xi i = 1,2,⋯, n
w
幾何マージン
というよ! ・分類境界を決定する関数により分類器を定義する.
・データを完璧に分離する関数が存在するという仮定がある.
・サポートベクトルでない点は,分離直線(超平面)に全く影響を与えない.
 つまり,最適解に影響はない.
ww b重み(n次元実数ベクトル) バイアス(スカラー)
線形学習マシンの数学:ハードマージン
点と直線の距離 (2次元Ver)
(x1, x2)
d d =
|w1x1 + w2x2 + b|
w2
1 + w2
2
wT
xi + b = 0wT
xi
点と超平面の距離 (n次元Ver)
(x1, x2, ⋯, xn)
d =
|w1x1 + w2x2 + ⋯ + wnxn + b|
w2
1 + w2
2 + ⋯ + w2
n
n次元かけないけど,

3次元的に,,,wT
xi + b = 0wT
xi
d
=
|wT
x + b|
||w||w
wT
x 一般化する
は,重みベクトルのノルム(長さ)を表す||w||w
n次元データ
2次元平面の
点と直線の距離
高校数学だね
線形学習マシンの数学:ハードマージン
特徴量 1
特徴量2
サポートベクトル
サポートベクトル
マージン最大化
(矢印部の長さ)
wT
x + b = 0
K2
K1
2つのクラスを分ける超平面に最も近いデータ(サポートベクトル)への距離を考える
wT
x
M =
wT
x+ + b
||w||
=
−(wT
x− + b)
||w||w
wT
x
x+
x−
x
x
w
wT
x
サポートベクトル サポートベクトル
ti(wT
xi + b)
||w||
≥ MmaxM,
w, bw (i = 1,2,⋯, n)
wT
xi
w
この最適化問題を解く
①サポートベクトル( or )
に対してマージン最大化する
②全てのベクトル  が
そのマージンよりも距離が長い
この2つの条件を満たす
xixix+x+ x−x−
線形学習マシンの数学:ハードマージン
ti(wT
xi + b)
||w||
≥ MmaxM,
w, bw (i = 1,2,⋯, n)
wT
xi
w
この最適化問題を解く
関数出力として測定される関数マージンMが変化するので,
幾何マージンを最適化するためにも,関数マージンを1にする.
その後,重みベクトルのノルムを最大化(最小化)する
M =
wT
x+ + b
||w||
=
−(wT
x− + b)
||w||w
wT
x
w
wT
x
サポートベクトル サポートベクトル
wT
x + b = 1w
ここで,両辺をMで割る
ti(wT
xi + b)
M||w||
≥ 1
ti( ˜wT
xi + ˜b) ≥ 1
˜w =
w
M||w||
˜b =
b
M||w||
全てのデータに対して,この不等式がなりたつ
wT
xi
w
wT
xi
w
w
簡単のためチルダで表しておく
˜M =
ti( ˜wT
xi + ˜b)
|| ˜w||
=
1
|| ˜w||
サポートベクトル( x+ や x- )においては,
以下の等号が成立する
wT
xi
w w
(目的関数)
(制約条件)
ti( ˜wT
xi + ˜b) = 1wT
xi
特にサポートベクトルでは等号が成立
線形学習マシンの数学:ハードマージン
max
1
|| ˜w||
,
˜w, bw
(i = 1,2,⋯, n)ti( ˜wT
xi + ˜b) ≥ 1wT
xi
w
min
1
2
||w||2
, ti(wT
xi + b) ≥ 1wT
xi (i = 1,2,⋯, n)
w, bw
最大化は,逆数をとって最小化するのと等価である
最大化 → 最小化問題
w
(ノルムの二乗や1/2は計算を行いやすくするため!)
(目的関数) (制約条件)
最適化問題の最適解を求めると,
wT
x + b = 1w
ti( ˜wT
xi + ˜b) = 1wT
xi
は通常いくつか現れる.
これは,分類境界に最も近いベクトルであり,左図の破線上
の点に相当する
線形学習マシンの数学:ハードマージン
特徴量 1
特徴量2
wT
x + b = 0
線形分離可能
K2
K1
特徴量 1特徴量2
K2
K1
線形分離不可能
wT
x + b = 0
ハードマージン ソフトマージン
ハードマージンよりも賢明なSVM
ハードマージンの持つ制約条件の緩和
SVMの取っ掛かりに良い
線形学習マシンの数学:ソフトマージン
K2
K1
線形分離不可能
wT
x + b = 0
wT
x + b = − 1
wT
x + b = 1
ti(wT
xi + b) ≥ 1 − ξiwT
xi
K1において分離する直線の
一番近いデータ(サポートベクトル)
K2において一番近いデータ
(サポートベクトル)
w, bw
線形分離可能な場合(ハードマージン)は,これの最小化問題を解くことが必要だった
min
1
2
||w||2
, ti(wT
xi + b) ≥ 1wT
xi (i = 1,2,⋯, n)w
等号が成立する場合
マージン
マージン内部に異なるデータが
入り込んでしまう
スラッグ変数 ξ を導入して制約を弱める
ξi = max
{
0, M −
ti(wT
xi + b)
||w|| }
(スラッグ変数 ξ はmax関数)
wT
x
w
w x
w x
w x
グ
ザ
イ
線形学習マシンの数学:ソフトマージン
ξi = max
{
0, (1 − 0.4 = 0.6)
}
ξi = max
{
0, M −
ti(wT
xi + b)
||w|| }
wT
x
w
K2
K1
具体例を考える
wT
x + b = 0
wT
x + b = 1
マージン M
例えば,この入り込んだ
データ(点)を考える
ti(wT
xi + b)
||w||
= 0.4直線と点の距離
マージン M = 1
ξi = 0.6
ti(wT
xi + b) ≥ 1 − ξi = 0.4wT
xi
この入り込んだデータ(点)に対しては,制約が小さくなる
w x
w x
上の具体例のように,マージンを超えてしまった点の存在を許可するためのもの
これによって,分離不可能な場合も境界の推定を可能にしている
線形学習マシンの数学:ソフトマージン
ti(wT
xi + b) ≥ 1wT
xi (i = 1,2,⋯, n)
ハードマージン
min
1
2
||w||2
w, bw
w
目的関数 制約条件
ソフトマージン
min
{
1
2
||w||2
+ C
n
∑
i=1
ξi}w, b, ξw
w
目的関数 制約条件
ti(wT
xi + b) ≥ 1 − ξi,wT
xi
(i = 1,2,⋯, n)
ξi ≥ 0
C > 0:正則化係数(ペナルティの度合い)
目的関数を最小化するためには,2項のバランスを上手く取らないといけない
マージンを広げようとすると,C
n
∑
i=1
ξi の部分( ξ の総和)が大きくなるため
1よりも小さくなるので,
マージンを超えて異なるクラスに入るのを許す
マージンを広げると,第一項は小さくなるが,第二項は大きくなっていく
線形学習マシンの数学:ソフトマージン
正則化係数(ハイパーパラメータ)の探求      ソフトマージン
正則化係数の値によって,マージンにどのような影響があるのか確認する
min
{
1
2
||w||2
+ C
n
∑
i=1
ξi}w, b, ξw
w目的関数
C > 0:正則化係数(ペナルティの度合い)
C = 100 C = 0.1
図の引用,サポートベクトルマシン,
竹内一郎,鳥山昌幸,講談社 (2015)
▶
Question
どっちがC=100?C=0.1?
・目的関数最小化をする際,Cが大きいと,ξを抑制する力が強くなる.
 (誤ったデータがマージンを超えて侵入することがなくなる)
・Cが小さいと,データがマージンを超えてしまうことを許すので,マージンを広く取れる.
SVMはマージン最大化をしたいのだけど,,,,
2項のバランスを考える必要がある
C → ∞では「ハードマージン」になる.
主問題 VS 双対問題:線形から非線形SVMへの拡張
ソフトマージン
min
{
1
2
||w||2
+ C
n
∑
i=1
ξi}w, b, ξw
w
目的関数 制約条件
ti(wT
xi + b) ≥ 1 − ξi,wT
xi
(i = 1,2,⋯, n)
ξi ≥ 0
主問題:これまで定式化してきた最適化問題のこと
SVMを計算する場合は,主問題は解かず,双対問題を解く
双対問題:主問題を別の解き易い形に変形させた問題
分類境界の非線形化を考える上で,双対問題の形式が有用である
• • • • • • • • •
1.変数を減らすことができる
2.カーネル関数が導入できる
制約条件のない最適化問題への変形をすること
K2
K1
線形関数で仮説された空間は表現不足な場合がよくある.

(つまり,右のように直線で分離できないデータがある)
主問題 VS 双対問題:線形から非線形SVMへの拡張
目的関数 f(x) を最小にする点を,n 個の不等式制約 gi(x) ≦ 0 のもとで求める
ラグランジュの未定乗数法
ラグランジュ関数
主変数 双対変数
(ラグランジュ乗数)
x x
(i = 1,2,⋯, n)
xL(x, α) = f(x) +
n
∑
i=1
αigi(x)
∂L(x, α)
∂x
=
∂f(x)
∂x
+
n
∑
i=1
αi
∂gi(x)
∂x
∂L(x, α)
∂αi
= gi(x) ≤ 0
αi ≥ 0
αigi(x) = 0
1.
2.
3.
4.
x x x
x xx
x
x
x
主変数に関する変微分
双対変数に関する変微分
ラグランジュ乗数は常に正
制約条件とラグランジュ乗数の積は0
以下の4つを解くことによって求まる
非線形SVMへの拡張:ラグランジュの未定乗数法
(1, 1, 1)
0
x
y
z【例題】中心(1, 1, 1 ), 半径1の球表面に 
    おいて,原点(0, 0, 0)から距離が
    最小となる座標を求めよ
この問題をラグランジュの
未定乗数を使って解くよ
最小f(x, y, z) = x2
+ y2
+ z2
目的関数
制約条件
g(x, y, z) = (x − 1)2
+ (y − 1)2
+ (z − 1)2
− 1 = 0
ラグランジュ関数
L(x, y, z, α) = x2
+ y2
+ z2
− α{(x − 1)2
+ (y − 1)2
+ (z − 1)2
− 1}
◀
問題引用,工学のための最適化手法入門,
天谷賢治,数理工学社 (2008).
非線形SVMへの拡張:ラグランジュの未定乗数法
∂L(x, y, z, α)
∂x
= 2x − 2α(x − 1)
∂L(x, y, z, α)
∂y
= 2y − 2α(y − 1)
∂L(x, y, z, α)
∂z
= 2z − 2α(z − 1)
∂L(x, y, z, α)
∂α
= − {(x − 1)2
+ (y − 1)2
+ (z − 1)2
− 1}
(x, y, z, α) =
(
1 ±
1
3
, 1 ±
1
3
, 1 ±
1
3
, 1 ± 3
)
上の4本の連立方程式を解くと,
が得られる.f は符号が + のときに,最大値を,- のときに最小値をとる.

よって,原点からの距離が最小となる座標は,
(
1 −
1
3
, 1 −
1
3
, 1 −
1
3 )
非線形SVMへの拡張:ラグランジュの未定乗数法
min
{
1
2
||w||2
+ C
n
∑
i=1
ξi}w, b, ξw
w
目的関数 制約条件
ti(wT
xi + b) ≥ 1 − ξi,wT
xi (i = 1,2,⋯, n)ξi ≥ 0
ラグランジュの未定乗数法を使ってSVMの主問題を双対問題へと変形する
L(w, b, ξ, α, β) =
1
2
||w||2
+ C
n
∑
i=1
ξi −
n
∑
i=1
αi{ti(wT
xi + b) − 1 + ξi} −
n
∑
i=1
βiξiwT
xiww
βα
ラグランジュ乗数
ラグランジュ関数
1.
2.
3.
主変数 w に関する変微分
∂L(w, b, ξ, α, β)
∂w
= w −
n
∑
i=1
αitixi = 0
∂L(w, b, ξ, α, β)
∂b
= −
n
∑
i=1
αiti = 0
∂L(w, b, ξ, α, β)
∂ξ
= C − αi − βi = 0
主変数 b に関する変微分
主変数 ξ に関する変微分
w
w
w
w
w xi
主変数( w, b, ξ )に関する偏微分を解く
w =
n
∑
i=1
αitixiw xi
n
∑
i=1
αiti = 0
C = αi + βi
ラグランジュ関数へ代入
これらの制約がどの程度重要であるかを
定量化した乗数になる
非線形SVMへの拡張:ラグランジュの未定乗数法
L(w, b, ξ, α, β) =
1
2
||w||2
+ C
n
∑
i=1
ξi −
n
∑
i=1
αi{ti(wT
xi + b) − 1 + ξi} −
n
∑
i=1
βiξiwT
xiww
max
{
˜L(α) =
n
∑
i=1
αi −
1
2
n
∑
i=1
n
∑
i=j
αiαjtitjxT
i xj}
xT
i xj
3つの条件式をラグランジュ関数へ代入し,整理することによって,
α のみの式に変形できる
サポートベクターマシンの双対問題は,上の関数によって表現される
ラグランジュ関数
ここで,bの値は双対問題に現れないので,b は主問題の制約を利用して導出する必要がある
b = −
maxti=−1 (wxi) + minti=1 (wxi)
2
wxi wxi
非線形SVMへの拡張:ラグランジュの未定乗数法
K2
K1
特徴空間への写像,カーネルの導入
線形関数で仮説された空間は表現不足な場合がよくある.

(つまり,右のように直線で分離できないデータがある)
表現力豊かな仮説空間が必要
線形分離ができるように高次元空間へと拡張する
直線(平面)で
分離できる
入力空間
特徴空間
特徴空間への写像,カーネルの導入
入力空間
特徴空間
x1
x2
x1
x2
x1x2
x = (x1, x2)x
ϕ(x) = (x1, x2, x1x2)x
写像
ϕ(x) = (x1, x2, x2
1, x2
2, x1x2)x
他にもいろんな方法があるよ
次元拡張
特徴空間への写像,カーネルの導入
L(w, b, ξ, α, β) =
1
2
||w||2
+ C
n
∑
i=1
ξi −
n
∑
i=1
αi{ti(wT
xi + b) − 1 + ξi} −
n
∑
i=1
βiξiwT
xiww
max
{
˜L(α) =
n
∑
i=1
αi −
1
2
n
∑
i=1
n
∑
i=j
αiαjtitjxT
i xj}
xT
i xj
ラグランジュ関数
max
{
˜L(α) =
n
∑
i=1
αi −
1
2
n
∑
i=1
n
∑
i=j
αiαjtitjϕ(x)T
i ϕ(x)j}
ϕ(x)T
i ϕ(x)j
特徴空間上への拡張
ϕ(x) = (ϕ1(x), ϕ2(x), ⋯, ϕr(x))x x x x
内積のみのお話
問題:次元拡張により,内積の計算量が膨大
ϕ(x)T
i ϕ(x)jϕ(x)T
i ϕ(x)j
特徴空間の次元数 r は,もともとの入力空間の n よりもはるかに大きい
そのため,内積 の計算がとても大変
ϕ(x)T
i ϕ(x)jK(xi, xj) = ϕ(x)T
i ϕ(x)jxi, xj
カーネル関数
特徴ベクトルの内積をカーネル関数で置き換える
(言い換えると,内積の計算さえできればおk)
特徴空間への写像,カーネルの導入
ϕ(x) = ϕ(x1, x2) = (x2
1, 2x1x2, x2
2)x
x, yx y二つのベクトル を考える
ϕ(x) = ϕ(x1, x2) = (x2
1, 2x1x2, x2
2)x
ϕ(y) = ϕ(y1, y2) = (y2
1, 2y1y2, y2
2)y
これら二つの内積を考える
ϕ(x)T
ϕ(y)x y = (x2
1, 2x1x2, x2
2)T
(y2
1, 2y1y2, y2
2)
= x2
1 y2
1 + 2x1x2y1y2 + x2
2 y2
2
= (x1y1 − x2y2)2
= ((x1, x2)T
(y1, y2))2
= (xT
y)2x y
変換後のベクトルの内積は,
元のベクトルの内積の2乗に等しい
c = 0, d = 2とした時の多項式カーネル
特徴空間への写像,カーネルの導入
特徴空間での内積がどのような形に落ち着くか,簡単な例で考えてみる
こういった形が,カーネル関数として成り立ちそうだぞ...
max
{
˜L(α) =
n
∑
i=1
αi −
1
2
n
∑
i=1
n
∑
i=j
αiαjtitjϕ(x)T
i ϕ(x)j}
ϕ(x)T
i ϕ(x)j
目的関数
ϕ(x)T
i ϕ(x)jK(xi, xj) = ϕ(x)T
i ϕ(x)jxi, xj
カーネル関数
ある特定の性質を満たすと
これが適応できる!
カーネル関数を用いる事で,最適化をする際に,明示的に φ を計算しなくても良い
特徴空間への写像,カーネルの導入
「マーサーの定理」を満足できる関数が,カーネル関数として適用する事ができる
カーネル関数の例
・多項式カーネル K(xi, xj) = (xT
i xj + c)dxi, xj xT
i xj
・ガウスカーネル K(xi, xj) = exp
{
−
||xi − xj ||2
2σ2 }
・シグモイドカーネル K(xi, xj) = tanh(bxT
i xj + c)xi, xj
xi, xj
xi xj
xT
i xj
カーネル関数の例
・多項式カーネル K(xi, xj) = (xT
i xj + c)dxi, xj xT
i xj
・ガウスカーネル K(xi, xj) = exp
{
−
||xi − xj ||2
2σ2 }
・シグモイドカーネル K(xi, xj) = tanh(bxT
i xj + c)xi, xj
xi, xj
xi xj
xT
i xj
各カーネルの内側のハイパーパラメータ c や d,σ などは別途決定しなければならない.
これらの設定は,ヒューリスティックであるし,いくつかの求め方もある.
(必ずしも正しい答えを導けるわけではないが、ある程度のレベルで正解に近い解を得ることができる)
σ :別々のクラスに分類された2点間の距離の最も小さいものを選択する.
信ぴょう性のある基準がない場合,交差検証や検証集合などを用いて設定する
たとえば
結果として満足のいく性能を達成するまで,様々なパラメータをいじくりまわす?
しかし,多くの場合,SVMを使用する場合,素朴な設定,実装で,満足できる結果を返す.

逆に,これらの経験は,SVMがうまく適応できる領域が完全に開拓されていないことを暗に示す.
“サポートベクターマシン入門”,Nello C., John S. T., 大北剛,共立出版 (2005), p.196.
特徴空間への写像,カーネルの導入
終わり
特徴空間への写像,カーネルの導入
Ad

More Related Content

What's hot (20)

サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
 
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
佑 甲野
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習
Yusuke Nakata
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
カルマンフィルタ入門
カルマンフィルタ入門カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
 
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
佑 甲野
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習
Yusuke Nakata
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
カルマンフィルタ入門
カルマンフィルタ入門カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
 

Similar to サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会 (20)

はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
NobuyukiTakayasu
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
 
サポートベクトルマシン入門
サポートベクトルマシン入門サポートベクトルマシン入門
サポートベクトルマシン入門
Wakamatz
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
JAVA DM
 
Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2
KazuhiroSato8
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
Preferred Networks
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)
Masaya Kaneko
 
Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会
Shuyo Nakatani
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
Akira Asano
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
t dev
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
 
双対性
双対性双対性
双対性
Yoichi Iwata
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
Hiroshi Nakagawa
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
NobuyukiTakayasu
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
 
サポートベクトルマシン入門
サポートベクトルマシン入門サポートベクトルマシン入門
サポートベクトルマシン入門
Wakamatz
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
JAVA DM
 
Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2
KazuhiroSato8
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
Preferred Networks
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)
Masaya Kaneko
 
Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会Infinite SVM [改] - ICML 2011 読み会
Infinite SVM [改] - ICML 2011 読み会
Shuyo Nakatani
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
Akira Asano
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
t dev
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
Hiroshi Nakagawa
 
Ad

More from Kenyu Uehara (20)

アボカドフェスティバル
アボカドフェスティバルアボカドフェスティバル
アボカドフェスティバル
Kenyu Uehara
 
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
Kenyu Uehara
 
ダウンヒルシンプレックス法について解説
ダウンヒルシンプレックス法について解説ダウンヒルシンプレックス法について解説
ダウンヒルシンプレックス法について解説
Kenyu Uehara
 
最適化手法「最急降下法」を出来るだけわかりやすく!
最適化手法「最急降下法」を出来るだけわかりやすく!最適化手法「最急降下法」を出来るだけわかりやすく!
最適化手法「最急降下法」を出来るだけわかりやすく!
Kenyu Uehara
 
機械学習を使って数字認識してみよう!
機械学習を使って数字認識してみよう!機械学習を使って数字認識してみよう!
機械学習を使って数字認識してみよう!
Kenyu Uehara
 
Cellular automaton
Cellular automatonCellular automaton
Cellular automaton
Kenyu Uehara
 
ラズベリーパイで作る顔面追跡カメラシステム
ラズベリーパイで作る顔面追跡カメラシステムラズベリーパイで作る顔面追跡カメラシステム
ラズベリーパイで作る顔面追跡カメラシステム
Kenyu Uehara
 
Study on temperature control model of a focal cooling human physiological system
Study on temperature control model of a focal cooling human physiological systemStudy on temperature control model of a focal cooling human physiological system
Study on temperature control model of a focal cooling human physiological system
Kenyu Uehara
 
Study on model parameters of focal cooling device using a Peltier element for...
Study on model parameters of focal cooling device using a Peltier element for...Study on model parameters of focal cooling device using a Peltier element for...
Study on model parameters of focal cooling device using a Peltier element for...
Kenyu Uehara
 
てんかん波抑制における脳冷却速度と周波数帯域の関係について
てんかん波抑制における脳冷却速度と周波数帯域の関係についててんかん波抑制における脳冷却速度と周波数帯域の関係について
てんかん波抑制における脳冷却速度と周波数帯域の関係について
Kenyu Uehara
 
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Kenyu Uehara
 
Modeling of EEG (Brain waves)
Modeling of EEG (Brain waves) Modeling of EEG (Brain waves)
Modeling of EEG (Brain waves)
Kenyu Uehara
 
脳波モデルを用いたてんかん波判別手法
脳波モデルを用いたてんかん波判別手法脳波モデルを用いたてんかん波判別手法
脳波モデルを用いたてんかん波判別手法
Kenyu Uehara
 
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するかゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
Kenyu Uehara
 
EEG analysis (nonlinear)
EEG analysis (nonlinear)EEG analysis (nonlinear)
EEG analysis (nonlinear)
Kenyu Uehara
 
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
Kenyu Uehara
 
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
Kenyu Uehara
 
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
Kenyu Uehara
 
連成非線形振動子を用いたてんかん性異常脳波の解析
連成非線形振動子を用いたてんかん性異常脳波の解析連成非線形振動子を用いたてんかん性異常脳波の解析
連成非線形振動子を用いたてんかん性異常脳波の解析
Kenyu Uehara
 
Implant device
Implant deviceImplant device
Implant device
Kenyu Uehara
 
アボカドフェスティバル
アボカドフェスティバルアボカドフェスティバル
アボカドフェスティバル
Kenyu Uehara
 
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
Kenyu Uehara
 
ダウンヒルシンプレックス法について解説
ダウンヒルシンプレックス法について解説ダウンヒルシンプレックス法について解説
ダウンヒルシンプレックス法について解説
Kenyu Uehara
 
最適化手法「最急降下法」を出来るだけわかりやすく!
最適化手法「最急降下法」を出来るだけわかりやすく!最適化手法「最急降下法」を出来るだけわかりやすく!
最適化手法「最急降下法」を出来るだけわかりやすく!
Kenyu Uehara
 
機械学習を使って数字認識してみよう!
機械学習を使って数字認識してみよう!機械学習を使って数字認識してみよう!
機械学習を使って数字認識してみよう!
Kenyu Uehara
 
Cellular automaton
Cellular automatonCellular automaton
Cellular automaton
Kenyu Uehara
 
ラズベリーパイで作る顔面追跡カメラシステム
ラズベリーパイで作る顔面追跡カメラシステムラズベリーパイで作る顔面追跡カメラシステム
ラズベリーパイで作る顔面追跡カメラシステム
Kenyu Uehara
 
Study on temperature control model of a focal cooling human physiological system
Study on temperature control model of a focal cooling human physiological systemStudy on temperature control model of a focal cooling human physiological system
Study on temperature control model of a focal cooling human physiological system
Kenyu Uehara
 
Study on model parameters of focal cooling device using a Peltier element for...
Study on model parameters of focal cooling device using a Peltier element for...Study on model parameters of focal cooling device using a Peltier element for...
Study on model parameters of focal cooling device using a Peltier element for...
Kenyu Uehara
 
てんかん波抑制における脳冷却速度と周波数帯域の関係について
てんかん波抑制における脳冷却速度と周波数帯域の関係についててんかん波抑制における脳冷却速度と周波数帯域の関係について
てんかん波抑制における脳冷却速度と周波数帯域の関係について
Kenyu Uehara
 
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Dependency of ECoG Band Spectrum in Epileptic Discharges upon Local Cooling R...
Kenyu Uehara
 
Modeling of EEG (Brain waves)
Modeling of EEG (Brain waves) Modeling of EEG (Brain waves)
Modeling of EEG (Brain waves)
Kenyu Uehara
 
脳波モデルを用いたてんかん波判別手法
脳波モデルを用いたてんかん波判別手法脳波モデルを用いたてんかん波判別手法
脳波モデルを用いたてんかん波判別手法
Kenyu Uehara
 
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するかゆらぐヒト脳波データからどのように集中度合いを可視化するか
ゆらぐヒト脳波データからどのように集中度合いを可視化するか
Kenyu Uehara
 
EEG analysis (nonlinear)
EEG analysis (nonlinear)EEG analysis (nonlinear)
EEG analysis (nonlinear)
Kenyu Uehara
 
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析(改訂版)
Kenyu Uehara
 
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
Kenyu Uehara
 
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
連成非線形振動子を用いたてんかん波焦点とその周辺脳波との関係性の解析
Kenyu Uehara
 
連成非線形振動子を用いたてんかん性異常脳波の解析
連成非線形振動子を用いたてんかん性異常脳波の解析連成非線形振動子を用いたてんかん性異常脳波の解析
連成非線形振動子を用いたてんかん性異常脳波の解析
Kenyu Uehara
 
Ad

サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会