今は、就職活動日記
カレンダー
04 | 2025/05 | 06 |
S | M | T | W | T | F | S |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
カテゴリー
フリーエリア
最新コメント
最新トラックバック
プロフィール
HN:
恭平
性別:
非公開
職業:
学生
自己紹介:
ブログ内検索
×
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
観測データがいくつかの概念に分類できるとき,データを
一つの概念に対応させる処理のことをパターン認識という.
認識対象から何らかの特徴量を複数抽出する.
それらの特徴は,特徴ベクトルとして表現される.
特徴ベクトルによって張られる空間を特徴空間という.
各パターンは特徴空間上の一点として表される.
特徴ベクトルの選び方が適切ならば,
一つの概念に対応させる処理のことをパターン認識という.
認識対象から何らかの特徴量を複数抽出する.
それらの特徴は,特徴ベクトルとして表現される.
特徴ベクトルによって張られる空間を特徴空間という.
各パターンは特徴空間上の一点として表される.
特徴ベクトルの選び方が適切ならば,
PR
データの集合を,外部からの教師信号なしに分類する手法は,
クラスタリングと呼ばれている.
クラスタリングには,階層的クラスタリングと,そうでないものがあり,
前者の代表はウォード法.
後者の代表はk-means法である.
クラスタリングと呼ばれている.
クラスタリングには,階層的クラスタリングと,そうでないものがあり,
前者の代表はウォード法.
後者の代表はk-means法である.
k-means法
【アルゴリズム】
クラスタ数kをあらかじめ決定しておく.
step1:それぞれの要素をランダムに各クラスタに割り当てる.
step2:各クラスタの中心を,クラスタに属する要素の平均値から求める.
step3:次に各要素を最も距離の小さいクラスタ中心と同じクラスタになるようにクラスタリングしなおす.
step2とstep3を繰り返す.
終了条件は,step3において,どの要素も所属クラスタが変化しなかった時である.
【アルゴリズム】
クラスタ数kをあらかじめ決定しておく.
step1:それぞれの要素をランダムに各クラスタに割り当てる.
step2:各クラスタの中心を,クラスタに属する要素の平均値から求める.
step3:次に各要素を最も距離の小さいクラスタ中心と同じクラスタになるようにクラスタリングしなおす.
step2とstep3を繰り返す.
終了条件は,step3において,どの要素も所属クラスタが変化しなかった時である.
パターン認識の勉強
【キーワード】
・パーセプトロン
・クラス
・特徴ベクトル
・特徴空間
・k-NN法
・プロトタイプ
・最近傍決定則
・重み係数(重みベクトル)
参考文献
・石井ら,わかりやすい パターン認識,オーム社 1998
【キーワード】
・パーセプトロン
・クラス
・特徴ベクトル
・特徴空間
・k-NN法
・プロトタイプ
・最近傍決定則
・重み係数(重みベクトル)
参考文献
・石井ら,わかりやすい パターン認識,オーム社 1998
- HOME -