2017年08月16日

画像の白色化について

夏休みがもう終わってしまいました。今回は機械学習の前処理で行われる画像の白色化のテストです。Pythonはよくわからないのでとりあえず今回はC++でEigen使ってやっています。白色化とは、共分散行列を対角行列とか単位行列にして無相関化しましょうという処理です。

まずは画像ですが、前回同様CIFAR-10のデータセットを使っています。白色化を行うときに特異値分解する場合、32x32x3だと結構な時間がかかりますので、今回はグレースケール化と諸事情により少しだけ縮小して30x30の900次元で取り扱っています。

参考にしたサイト[1]では、グレースケール化して色を反転?させていたようですので、それに倣いました。後、試してみたところGCN[2]をした方が結果画像に近づいたので、画像毎の正規化もしていると思います。

Eigenを使う場合、特異値分解するとUΛVに分解されますので、白色化の行列は下記のような感じになると思います。おそらく。
  JacobiSVD<MatrixXd> svd(covmat, ComputeFullU | ComputeFullV);
  MatrixXd inv_sigma = MatrixXd::Zero(dim, dim);
  for (int i=0; i<dim; i++) inv_simga(i, i) = 1.0 / (sqrt(svd.singularValues()[i])+EPS);
  MatrixXd white = svd.matrixU()*inv_sigma*svd.matrixV().adjoint();
実行結果

org0007.png image0007.png
org0029.png image0029.png
左がGCNして0〜1に線形変換したもの、右が[1]に倣ってEPS=0.1として白色化した画像です(見やすいように10倍に拡大したものです)。縮小したせいか微妙に違いますが大体一致していると思います。

[2]の方にありますが、ZCA白色化の各行を画像化すると、下記のような画像が得られましたので、多分処理としては合っていると思います。

white0094.png white0598.png

PythonとC++のどちらでやるかは未定ですが、次は畳込みニューラルネットワークを実装してみたいと思います。

[1] What is the difference between ZCA whitening and PCA whitening?
[2] データの前処理〜白色化 その2〜
web拍手 by FC2
posted by シンドラー at 18:06 | Comment(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする

2017年08月02日

Pythonで画像処理 その2

昨日の続きです。とりあえず画像のデータセットを表示してみることにしました。CIFAR-10 and CIFAR-100 dataset[1]を使ってみようということで、Python用のデータをダウンロードしてみました。サイトにはunpickleの方法しか載っていなかったので、ググって[2]のサイトの方法を試させていただきました。サイトはPython 2系のようでしたので、3系にするためにunpickle関数を[1]に載っている3系のものに書き換えました。

ダウンロードしたデータを展開して実行してみると、下記のようなエラーが出ました。
  File "省略", line 26, in get_cifer10
      tr_data = data_dict['data']
  KeyError: 'data'
'data'なんて名前のキーは無いよというエラーのようでしたので、KeyErrorで検索してみると[3]のサイトがでてきました。
  print(data_dict.keys())
  dict_keys([b'batch_label', b'labels', b'data', b'filenames'])
キーを確認するためにdata_dict.keys()を実行してみたところ、上記のようにb'data'と頭にbがついていました。このbは何のbなんでしょうね。

とりあえずキーにすべてbをつけると、実行できました。後はconv_data2imageという関数も準備していただいていましたので、それを使って画像を表示してみました。
  img0 = tr_data10[0]   # 0番目の画像データ
  img1 = conv_data2image(img0)
  from skimage import io
  io.imshow(img1)
  io.show()

実行結果

dl2_figure_5.png

参考サイトと同じ画像が表示されましたので、とりあえず読み込みは成功したようです。

[1] CIFAR-10 and CIFAR-100 dataset
[2] Qiita - [Python]CIFAR-10, CIFAR-100のデータを読み込む方法
[3] stackoverflow - Reading Cifar10 dataset in batches
web拍手 by FC2
posted by シンドラー at 18:03 | Comment(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする

2017年08月01日

Pythonで画像処理

Anaconda環境ですが、欲張って色々入れてしまうと競合するみたいですね。Anaconda 4.3.0(64ビット)だけインストールするようにしたら、前回のエラーが出なくなりました。

今回は機械学習で使うため画像の枚数を回転させて無理矢理増やす方法です。OpenCVに付属のcreatesamplesユーティリティの真似です。といってもあちらはx、y軸の回転や明るさの変化などもできますが。
  from PIL import Image
  import numpy as np
  import os

  # 「実践コンピュータビジョン」より改変
  def get_imlist(path, ext):
      # pathに指定されたディレクトリのすべてのext拡張子を持つ画像のリストを返す
      return [os.path.join(path,f) for f in os.listdir(path) if f.endswith(ext)]

  folder = "./image"
  filelist = get_imlist(folder, '.jpg')

  # 増やしたい枚数
  samples = 100
  # クラス番号
  classNo = 1

  # 増やした画像ファイル名とクラス番号のリスト
  txtfile = folder + "imagelist.txt"
  fout = open(txtfile, 'wt')

  # 画像ファイルの数だけ繰り返す
  for infile in filelist:
      # splitext: パス名を(root, ext)のペアに分割
      root = os.path.splitext(infile)[0]
      # -180.0〜180.0の回転角度を乱数で生成
      randDeg = 360.0 * np.random.rand(samples) - 180.0

      # 増やしたい枚数だけ繰り返す
      for idx in range(samples):
          # ゼロパディングしたファイル名を作成
          # 参考URL: http://www.lifewithpython.com/2015/10/python-zero-padding.html
          number_padded = '{0:05d}'.format(idx)
          filename = root + "_" + number_padded + ".png"
          # ファイル名をテキストファイルに書き出す
          fout.write(filename + ' ' + str(classNo) + '\n')
          # 画像を開いて乱数の角度で回転して保存
          out = Image.open(infile).rotate(randDeg[idx])
          out.save(filename)

  # ファイルを閉じる
  fout.close()
機械学習の時は画像のパスとクラス番号が書かれたファイルもよく使いますので、それも出力するようにしてみました。

forループのところなどはpythonに慣れていればもっとスマートに書けそうですが。後、既に混ざってしまってアレですが、シングルクォートとダブルクオートってPythonだとどういう扱いなんですかね。C言語だと文字定数と文字列の違いがあったのですが…。

実行結果

Lenna00000.png
Lenna.jpg1枚から回転した100枚が増えました。

参考文献
[1] Ja Erik Solem著,相川 愛三 訳,「実践コンピュータビジョン」,オライリー・ジャパン
[2] Bill Lubanovic著,斎藤 康毅 監訳,長尾 高弘 訳,「入門Python3」,オライリー・ジャパン
[3] Python Tips: Pythonでゼロパディングしたい
web拍手 by FC2
posted by シンドラー at 18:00 | Comment(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする

2017年07月21日

Visual Studio Community 2017 + Anaconda 4.3.0 で Python環境の構築

AIとかDeep Learningが流行っていますね。色々なフレームワークが出来ていますが、Pythonを使ったものが多いので、Pythonの勉強をしてみることにします。環境としてはWindowsのVisual Studio使用です。

環境構築

まずはVisual Studioのインストールです。セットアップファイルが便利になっているので、インストールの時にPython開発にチェックしてインストールするだけです。どれを選べば良いのかいまいちわかりませんでしたが、Python 3 (3.6.0) (64ビット) Pythonネイティブ開発ツール、Anaconda3(4.3.0.1) (64ビット)辺りをインストールしました。

1. 新しいプロジェクトの作成→Python→PythonアプリケーションでPythonのプロジェクトを新規作成
2. ツール→Python→Python環境を選択→ドロップダウンリストから概要を選択→Anaconda3(2.7, 64-bit)を選択→新しいプロジェクトに対する既定の環境にする
3. プロジェクト→〇〇のプロパティ→全般→インタープリター:Anaconda 4.3.0(2.7, 64-bit)に変更

とりあえずはこのような感じです。最初Anaconda 4.3.0(3.6, 64-bit)のPython 3.6使用でやろうとしていたのですが、import numpy as npとすると、ImportError: DLL load failed: と出てうまくいきませんでした。[1]によると2.7にしましょうとありましたので、特にこだわりもないので2.7にしました。おそらく3.6でも動かせるのだと思いますので、必要があればやり方を調べたいと思います。

4. 文字コードの設定として1行目を下記のようにする
  # -*- coding: utf-8 -*-

後は[2]などを参考にMatplotlibを使って関数の描画や画像の表示を試してみました。

実行結果
figure_1.png figure_1-1.png
[2]の本を一通りやれば大体イメージは掴めそうですかね。

[1] NumPy library ImportError: DLL load failed: The specified procedure could not be found
[2] 斎藤 康毅 著,"ゼロから作るDeep Learning", オライリー・ジャパン
web拍手 by FC2
posted by シンドラー at 19:13 | Comment(0) | TrackBack(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする

2016年02月10日

Extreme Learning Machineのテスト

ニューラルネットワークのような感じでバックプロパゲーションで重みを学習するのではなく、最小二乗法で計算するELM(Extreme Learning Machine)というものがあるみたいなので、試してみました[1][2]。

ネットワーク構成
elm_001.png
最初バイアス入力を入れずにやっていて、近似できないので困っていました。出力の閾値の代わりとして入れているものなので、ELMでも当然必要でした。

elm_002.png

最小二乗法の計算は、[2]にも書かれていますが、データ数>未知数の場合と、データ数<未知数の場合で場合分けするべきですが、今回は片方しか書いていません。

elm_003.png

実行結果

活性化関数にシグモイド関数を使っています。とりあえずsinc関数に一様乱数ノイズを付与した入力データに対して、ELMを使用して関数近似してみました。中間層50,データ数100です。

elm_004.png

[1] Extreme Learning Machine
[2] Extreme Learning Machine
web拍手 by FC2
posted by シンドラー at 20:38 | Comment(0) | TrackBack(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする

2010年08月06日

A*アルゴリズムのテスト

またまたこれまでと全然違うことですが、有名なA*アルゴリズムによる経路探索をちょっとやってみました。

参考文献:オライリー社「ゲーム開発者のためのAI入門」

実行結果



赤がスタート地点で青が目的地で、黒が壁で薄い灰色がオープンリスト、濃い灰色がクローズドリスト、緑色が現在の探索地点と結果の経路です。

今回はタイル環境ですが、3D空間などでもほぼそのまま使えそうです。
web拍手 by FC2
posted by シンドラー at 15:09 | Comment(0) | TrackBack(0) | Machine Learning | このブログの読者になる | 更新情報をチェックする