A Constrained Learning Model for Recognizing Translated and Rotated Patterns

デル とそれ を拡 張 した モデ ルが 提案 され て い る(1)。こ れ らの モ デル は位 置 ず れ と回転 に限 れ ば,5層 ネ ッ ト で構 成 され,幾 つか の利 点が 生 まれ る と報告 され て い る。 しか し,実用 化 を 目指 す た めに は,更 にネ ッ ト規 摸 の縮 小 や,学 習 な らびに認識 時 間の 短縮 な どの改 善 が望 まれ る。 本 レ ター は,ネ ッ トに位 置 ずれ ・回転 不 変 とな る制 約 条件 を施 せば ネ ッ ト規 模 が縮小 で き,か つ認識 時 間 も短 縮 で き るこ とを示 す。 2.制 約 付 き学 習モ デル (1)ネ ッ トワー ク構 造 図1の ネ ッ ト構造 は, 回 転 を認 識 す る制 約 付 き学 習 モ デ ル(2)に 位 置 ず れ も 認識 で きる よ うに拡 張 した もの で あ る。入 力 層INは 八岸個 の ユ ニ ッ トか らな り,入 力 パ タ ー ン を表 現 す る た めのN×Nの メ ッシ ュに対応 す る。 隠 れ層Hij(i= 1,2,3,4;j=1,2,...,N)は 回 転 角0,90,180,270度 の 四つ のユ ニ ッ トグ ルー プ に分か れ,更 にそ れ ぞれ の グ ルー プ は,位 置 ずれ に対 応 す るN個に 分 か れ る。 Hijの ユ ニ ッ ト数 はす べ て等 し くL個 で ある。 必 要 な Lの 大 きさ は記憶 させ た いカ テ ゴ リー 数Mに 依存 す る。 出 力層OUTの ユ ニ ッ ト数 は, M個 と同 じ にす る。入 力 層INか ら隠 れ層Hijへ の 結合 の 重 み をIHv (i=1,2,3,9;j=1,2,...,N)と す る。 これ ら はN2×L 次元 の ベ ク トル となる。 こ こで,IHij(2=1,2,3,4;j=1)は そ れ ぞれ 右90 度 ご との回転 に対 応 す る よう に要 素 が ずれ込 む ように す る(2)。90度 回 転 した とき に対 応 す る要 素 の値 が 等 しい こ とを記 号 @(rotationally equal).で 表 す。 更 に,IHijを 入 力 メ ッ シ ュ全 体 が 右 と上 に1ユ ニ ッ ト 移動 す るよ うに,要 素が ずれ込 む ようにす る。 メ ッシュ 全体 が右へ1ユ ニ ッ トだ け位 置ず れ した ときに対 応する 要 素 の値が 等 しい こ とを記号#(right-translationally equal)で,上 へ1ユ ニ ッ トだ け位 置 ず れ した ときに 対 応 す る 要 素 の 値 が 等 し い こ と を 記 号&(uptranslationally equal)で それ ぞれ表 す と次 の よ うに 書 け る。 (1)