2015年09月08日

Unity 5でG-Bufferのテスト その3

続きです。[1]には、16.4にテクスチャベースのSSSについても書かれていて、割とよく使われている方法かと思います。なぜかこれまでやってなかったのでUnity 5とG-Bufferで適当に試してみることにしました。

まずは、テクスチャ座標を展開したような画像を生成します。Vertex Shaderで、テクスチャ座標(0〜1)が取得できると思いますが、これを-1〜1に広げてフラグメントシェーダの頂点として渡せばよい、ということになります。この辺、MMDモデルなどでは複数マテリアルでテクスチャ座標が重なっていたり、顔のテクスチャが半分しかなく、顔の左右で同じテクスチャ座標を持っていたりして、一工夫が必要です。

そこでまずは簡単のために、CGの論文?などでよく見るHeadモデル[3]で試してみることにしました。Unityに.objを読み込むとオブジェクトが複数Groupに分かれていたり表示がおかしかったので、一旦Metasequoiaで読み込んで、1オブジェクト1マテリアルとして出力しなおしました。あとはバンプマップの.pngもうまく読み込めなかったので.bmpにしました。[2]によると16-bit .pngとあるので、それで駄目だったのでしょうか。

MaterialをStandard Shaderにしてレンダリングした結果は下記のようになります。テクスチャが細かいのとGIなのでこれでも十分な気がしますね。

Unity5_sss_001.png

以下手順です。

0. カメラにSSSTest.csを設定、SSS MatにCustom/SSSShaderを割り当てたマテリアルを設定
SSSTest.cs

1. テクスチャ座標を展開した画像をRenderTextureに出力

多分Unityのビルドイン変数や関数を使えばいいのだと思いますが、C#スクリプトからワールド座標や光源の位置や行列を渡しています。[1]では単純に-1〜1にしていますが、上下逆になるのでy座標は反転させています。

UnwrapShader.shader

Unity5_sss_002.png

また、本来はdotNLだけですが、周辺を明るくしたかったのでリムライティングも入れてみることにしました。

Unity5_sss_003.png

2. テクスチャ座標やオブジェクト番号などをG-BufferとしてRenderTextureに出力

最終的にDeferred Shadingで合成するためには、普通にレンダリングした結果と、その座標が持つテクスチャ座標も必要になります。Unityが提供しているG-Bufferには、テクスチャ座標がなさそうな感じでしたので、自前で出力します。ついでにオブジェクト番号や、MMDモデルなどの場合はマテリアル番号なども出力する必要があるかと思います。

RenderGBuffer.shader

Unity5_sss_004.png

Skydomeはテクスチャ座標がないので黒、床はオブジェクト番号を設定していないのでテクスチャ座標のみ、モデルはBlueに1.0を設定しているので、これを使ってSSSする部分とそれ以外を区別します。

3. 1. のテクスチャを適当にブラーして、通常のレンダリング結果と合成

ブラーについては、[1]のものを参考に、[3]のブラーの重み付けを参考にやってみました。本当は複数枚のブラー画像を作成して合成する必要がありますが、手抜きで1枚しか使っていません。あと、歪みの補正みたいな話も[3]には載ってますがそれもやってません。

SSSShader.shader

ブラー画像はこんな感じです。

Unity5_sss_005.png

そういえばRenderTextureの背景色を肌色っぽい色にしていたはずなのに、なんで黒色なんでしょうか。その辺含めてバグがありそうですね。

実行結果

SSSなし
Unity5_sss_009.png
リムライティングなし
Unity5_sss_007.png
リムライティングあり
Unity5_sss_008.png
ブラーしたテクスチャ色のみ
Unity5_sss_006.png

[1] http://http.developer.nvidia.com/GPUGems/gpugems_ch16.html
[2] http://graphics.cs.williams.edu/data/meshes.xml
[3] http://news.mynavi.jp/column/graphics/061/

web拍手 by FC2
posted by シンドラー at 15:43 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年09月02日

Unity 5でG-Bufferのテスト その2

G-Bufferの使い道ということで、とりあえず[1]の16.3 Simulating Absorption Using Depth Mapsを試してみようとしたのですが、色々と詰まりましたのでメモしておきます。まだ色々間違いがありそうですが。

1. RenderWithShaderで光源からの深度値のレンダリングはForwardで行う

レンダリングパスを全部Deferredにしていると、OrthogonalではレンダリングできるのにPerspectiveでは動かないという状態になりました。[2]に同じ症状の人がいましたので、Forwardにして対応しました。

2. 深度値のマクロが色々あってどれを使えばいいのかわからない

これもちゃんと一つ一つシェーダのコードを見ていけばわかるんだとは思うのですが、UnityCG.cgincに色々便利関数が定義されているんですがどれを使ってシェーダ上でどれを使えば参照できるのかなどがわかりにくかったです。まだ怪しいので要検証ですが。

3. 右手系、左手系、OpenGL、DirectXなのかわからない

色々な環境に対応するために色々な工夫がされているようですが、座標系がわかりにくかったです。環境設定のせいかもしれませんが、C#スクリプトでMatrix4x4を使う分にはOpenGL系に見えるんですが、深度値の範囲などシェーダ側ではDirectX系になっているようで、G-Bufferからワールド座標の計算などがなかなかうまくいかなくて大変でした。[3][4]にあるように、DirectXを使用する場合には、C#スクリプト側でDirectX用にプロジェクション行列を変換しないといけなかったようです。

手順
1. 平行光源とそれを子に持つサブカメラを追加する
2. 上記サブカメラにはRenderTextureにRenderWithShaderを使って深度値を書き込むスクリプトとシェーダを設定する。この辺りは[5][6]も参考にさせていただきました。
DepthRenderer_002.cs
RenderDepth_002.shader

3.メインカメラにG-Bufferを取り扱うスクリプトとシェーダを設定する。サブカメラの位置は、対象となるThirdPersonCharacterのZ軸方向後ろ上に角度で指定した位置に設定する(Update関数内)。
GBufferTest_002.cs

シェーダでは、G-Bufferでメインカメラで映っているピクセルのワールド座標を計算し、その座標をサブカメラから見た場合のワールド座標との位置差(length)を使って薄いところは明るく、厚いところは暗くするようにする。
TestShader_002.shader

C#スクリプトからマテリアルには、SetTextureやSetMatrixを使うと色々データを渡せて、それをシェーダ側で参照できることがわかりました。

実行結果

スクリプトでキャラクタが移動したり光源の角度を変えてもうまく光源からの深度値が取れるようにサブカメラの位置を制御しています。

gbuffer_test002_004.png

サブカメラの角度を変えると、一応光源の位置に応じた厚みで色が変わります。

0度
gbuffer_test002_002.png
30度
gbuffer_test002_001.png
60度
gbuffer_test002_003.png

[1] GPU Gems Chapter 16. Real-Time Approximations to Subsurface Scattering
[2] Unity Answers - A Problem About RenderWithShader and Camera Orthographic
[3] Screen Space Reflections
[4] Unity Answers - How do I reproduce the MVP matrix?
[5] kode80 - Screen Space Reflections in Unity 5
[6] Unityのオフスクリーンレンダリング
web拍手 by FC2
posted by シンドラー at 01:31 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年08月21日

Unity 5でG-Bufferのテスト

OpenGL+GLSLの頃には、大体G-Bufferを使った遅延シェーディング(Deferred Shading)をやっていたので、Unity 5でやる場合のメモです。Unityも5から遅延シェーディングに対応したはずで、G-Bufferも取得できるそうです[1]。

シェーダ
_CameraGBufferTexture0: RGB拡散反射色、Aは未使用
_CameraGBufferTexture1: RGB鏡面反射色、Aは粗さ
_CameraGBufferTexture2: RGB法線ベクトル(0〜1)、Aは未使用
_CameraGBufferTexture3: 発光とかライティングとかも入ったテクスチャ

ということで、深度バッファはG-Bufferの中には入っていないようです。深度バッファは別枠で指定できるようです[2][3]。

カメラのスクリプト内のどこか
_camera.depthTextureMode |= DepthTextureMode.Depth;

シェーダ
sampler2D _CameraDepthTexture;

というわけで、[4]を参考にさせていただき、GBufferを切り替えるサンプルを作成してみました。

手順
1. 床とStandard Assets→Characters→ThirdPersonCharacter→Prefabs→ThirdPersonControllerを追加
2. 必要ないけれどStandard Assets→Environment→Water→Water→Prefabs→WaterProDaytimeを追加
3. Edit→Project Settings→Player→Rendering PathをDeferredにしておく

Ethanのマテリアルを適当に変更したりした結果
Unity5_gbuffer_001.png

4. AssetsにMaterials, Shaders, Scriptsディレクトリを作成
5. それぞれにTestMaterial.mat,TestShader.shader, GBufferTest.csを作成(名前は適当)

6. カメラにつけるスクリプトGBufferTest.csの実装
GBufferTest.cs

DepthTextureのモードの設定と、後はImageEffectのところでTestMatというマテリアルを適用しているだけです。

7. TestMaterialに割り当てるシェーダTestShader.shaderの実装
TestShader.shader

フラグメントシェーダで各種G-Bufferを取得して表示しているだけです。ぐるぐるなエフェクトは[4]を参考にさせていただいています。

8. TestMaterialのShaderにCustom/TestShaderを割り当てる
Unity5_gbuffer_002.png
ここのTexture Noでシェーダの処理を切り替えます。

9. Main CameraにGBufferTest.csをドラッグ&ドロップして適用する
10. TestMatにTestMaterial.matをドラッグ&ドロップして適用する

以上です。

実行結果

カラーバッファ                     スペキュラバッファ
Unity5_gbuffer_004.png Unity5_gbuffer_005.png

法線バッファ                      光源計算付カラーバッファ
Unity5_gbuffer_006.png Unity5_gbuffer_007.png

深度バッファ                      ぐるぐるエフェクト
Unity5_gbuffer_008.png Unity5_gbuffer_009.png

後、遅延シェーディング自体書き換えたい、という場合はEdit→Project Settings→Graphics→Built-in shader settingsのDeferredのところにBuilt-in Shaderのものが割り当てられているので、自分で書いたものに差し替えたりもできるみたいです。

[1] http://docs.unity3d.com/Manual/RenderTech-DeferredShading.html
[2] http://tips.hecomi.com/entry/2014/03/16/233943
[3] http://www.kode80.com/blog/2015/03/11/screen-space-reflections-in-unity-5/
[4] http://www.slideshare.net/calmbooks/unity-38485570

web拍手 by FC2
posted by シンドラー at 18:00 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年08月17日

Unity 5のStandard Shaderに関するメモ

いつの間にやら8月に入って夏休みすら終わっていました。

Unity 5のStandard Shaderを改変する場合のメモです。適当にやっているのでこの方法でいいのかどうかもわかりません。その他書いてない注意点としては、.cgincだけ変更した場合、.shaderをReimportしないと結果が反映されなかったりしました。MonoDevelopではなくVisual Studioを使えば大丈夫だったりするんでしょうかね。


Standard Shaderとしては改変したものを公開していいらしいので、一応置いておきます。公開に問題がありましたらお知らせください。
CustomShader.zip

web拍手 by FC2
posted by シンドラー at 22:04 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年07月28日

[Unity 5] Mikulusのようなもの作成メモ [DK2]

忘れそうなのでメモです。書籍に載ってる細かい話などは省略です。

0. Edit→Project Settings→Player→Virtual Reality Supportedにチェックを入れる。
1. GameObject→3D Object→Cubeでキューブ作成、Position(0,-0.5,0), Scale(100,1,100)にして床にする
2. MMD4Mecanim[1]でモデル変換、良さそうなVMD立ちモーションを割り当てておく
(今回は[2]のモデル、[3]のモーションを使用させていただきました)
3. モデルをDrag&DropしてPosition(0,0,0)に配置
4. Assetsのどこかで右クリック→Create→Animator Controllerを追加。モデルのAnimationのControllerにDrag&Drop
5.追加したAnimator Controllerをダブルクリック→変換した立ちモーションをDrag&Drop
6. 追加したモーションをクリック→Edit...→Loop Timeとかにチェックを入れて立ちモーションをループ
7.GameObject→CreateEmptyを追加。名前をDummyに変更。Position(0,1.3,0.1)、Rotation(0,180,0)にする。Main Cameraを作成したGameObjectにDrag&Dropして親ノードとする。Main Cameraの位置姿勢は0にする。
8. Main CameraのField of Viewを30にする。Clipping PlanesのNearを0.01にする。HDRにチェックを入れる。
9. モーションにまばたきが入っていない場合は[4]を追加
10. カメラの方を向いてもらうように目線制御[5][6]を追加。AssetのHead Look Controllerを使用する方法も。
11. MMD4MecanimのComponent->Scripts->MMD4MecanimMorphHelperで照れ、恐ろしい子!などを追加[6]
12. 物理有効化→物理パラメータを少し修正して動かしやすいように
13. Bloom効果を入れるために各種ImageEffectを追加[7][8]。ついでにDepth of Field等も入れてみる。
14. Bloom具合を上げる場合はbody_pinkやbody_greenのシェーダをStandardにしてEmissionを変更[7]。MMD4MecanimでALを有効にする方法があるかも(未確認)。
15. キーボード入力スクリプトの追加

前回辺りのスクリプトだと動きがおかしかったので修正しました。
・回転の基底ベクトル3本はtransform.forward, transform.right, transform.upで取得できる。(正規化されていない?)
・マニュアル[9]によると、ワールド座標のはずだが、親ノードにその移動量をTranslateすると方向がおかしい(TranslateはlocalPosition移動?)
・親の姿勢ベクトルを反映させないと駄目?ということで下記に修正するとそれっぽくなった。
  // メインカメラの向きを親ノードの方向に変換?
  mainForward = mainCamera.transform.forward;
  mainRight = mainCamera.transform.right;
  mainUp = mainCamera.transform.up;
  dummyForward = dummy.transform.TransformDirection (mainForward);
  dummyRight = dummy.transform.TransformDirection (mainRight);
  dummyUp = dummy.transform.TransformDirection (mainUp);

以下スクリプト
HmdScript.cs

とりあえずはこのような感じで、後は予め複数モデルを読み込んでおいてキーボードで有効/無効切り替えでも作りますかね。動的に読み込みなどは難しそうですし。

実行結果

派手にBloomしてみました。どこかで派手に光らせるのは現実ではありえないので駄目とか見た気もしますが。HMDで見ているものを動画にすると方向変わりすぎて見づらいですね…。



[1] MMD4Mecanim
[2] 【MMD】化粧を落としたアペミク配布
[3] 【MMO】MMO用待機モーション【モーション配布】
[4] MMD4MFaceBlink - MMD4Mecanimでまばたき
[5] 我がブログ - Mecanimで目線制御
[6] 主婦ゆに!
[7] [Unity5] Bloomで光らせる
[8] UnityのImageEffectで遊んでみる
[9] http://docs.unity3d.com/ScriptReference/Transform.html
web拍手 by FC2
posted by シンドラー at 23:05 | Comment(0) | TrackBack(0) | Oculus Rift | このブログの読者になる | 更新情報をチェックする

2015年07月22日

[Unity 5] テレポート移動のテスト [DK2]

酔わないようにテレポート移動しようの続きです。小さいキューブを動かすのも微妙でしたので、SDユニティちゃんに走ってもらうことにしました。キーボード入力でSDユニティちゃんに付けたカメラの位置にテレポート移動します。ステージはDecrepit Dungeonアセットを使用させていただいています。

手順メモ

1. GameObject→Cameraの追加:TagをMainCameraに(Main Cameraがなければ), Field of View:30, Clipping Planes: Near 0.01
2. GameObject→Light→Directional lightを追加(Directional lightがなければ)
3. Standard Assets→Characters→ThirdPersonCharacter→Prefabs→ThirdPersonController.prefabをDrag&Drop
4. Assets→Import Package→Custom PackageでSD_unitychan.unitypackageをインポート
5. ThirdPersonControllerにUnityChan→SD_unitychan→Prefabs→SD_unityChan_humanoid.prefabをDrag&Drop
6. EthanBodyとEthanGlassesを削除
7. ThirdPersonControllerのInspectorのAnimationのAvatarをSD_unitychan_humanoidAvaterに変更

実行してキーボードでSD_unitychanが動くことを確認

8. ThirdPersonControllerにCameraを追加:UnitychanCameraに名前変更
9. Assetsのどこかで右クリック→Create→Render Textureを追加:UnitychanRenderTextureに名前変更, 512x256に変更
10. UnitychanCameraのTarget TextureにUnitychanRenderTextureをDrag&Drop
11. Main CameraにGameObject→3D Object→Planeを追加
 Planeの位置(0.5, -0.5, 1.2), 角度(90, 180, 0), スケール(0.1, 0.1, 0.05), 各種Shadows: Off, Mesh Collider無効, ShaderはToon/Basicなど法線の影響を受けにくいものに変更
12. 追加したPlaneにUnitychanRenderTextureをDrag&Drop

実行してキーボードでSD_unitychanを動かして、SD_unitychan視点の映像がPlaneに映っていることを確認

unity_dk2_003.png

13. GameObject→CreateEmptyを追加:TargetPointに名前変更
14. Assetsのどこかで右クリック→Create→C# Scriptでスクリプトを作成:PlayerScriptに名前変更→Main CameraにDrag&Drop、中身は下記([1]の改変)
PlayerScript.cs
15. TargetPointをMain CameraのPlayerScriptのTargetにDrag&Drop

実行してキーボードでSD_unitychanがメインカメラの向きに移動することと、QとEでUnitychanCameraの上下向きが変わることを確認

16. GameObject→CreateEmptyを追加:Dummyに名前変更、Main Cameraの親にする
17. Assetsのどこかで右クリック→Create→C# Scriptでスクリプトを作成:TeleportScriptに名前変更→Main CameraにDrag&Drop、中身は下記
TeleportScript.cs
実行してTキーでUnitychanCameraの位置にテレポート移動することを確認

実行結果

Planeの背面が映りこんで赤になっちゃいますね。背面は描画しない設定にはなってないんですかね。
感想:
・キーボード入力で自発的にテレポートするためかカメラを急に切り替えても特に違和感はなかった
・右下のビルボードは視野全体からみると小さいのでそこでカメラが動いても(ずっと注視しなければ)あまり酔わない
・マウスでグイーンと視点回転などはないので酔いにくいはず
・自分で歩かないので没入感はあまりないかも

なおUnity 5は使い始めて10日程度なのでスクリプトの書き方とか色々間違っているかもしれません。
ユニティちゃんライセンス

このコンテンツは、『ユニティちゃんライセンス』で提供されています


[1] 040 カメラの向きに合わせてGameObjectを移動させる
web拍手 by FC2
posted by シンドラー at 06:44 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年07月20日

Unityの勉強

3連休だったので、Unity 5をちょっと使ってみることにしました。目標はMikulusのようなものの作成です。

1. [1]を参考にシーンの作成
2. [2]を参考にMMD4Mecanim等を使用してTda式ミクさんの導入
3. FPSControllerでカメラ移動

Mikulusっぽいものをつくるのに[2]はとても参考になりました。[1]も前半はわかりやすかったです。あとはUnityのVR Supportにチェックをいれてとりあえず完成だったのですが、FPSControllerでの視点移動が微妙でした。

やっぱりDK2使う場合、その場で見回したりする分には問題ないですが、キーボードやマウス操作で視点が動くと酔いそうになります。そこで、カメラをもう一つ追加して、そのカメラを動かして位置決めして、その位置にメインカメラを瞬間移動させることにしました。

4. RenderTexture[3]を追加して、サブカメラから見た景色をメインカメラの子Planeに映す
5. サブカメラを操作して、位置を決める[4][5]
6. 特定のキーを押すと、サブカメラの位置姿勢をメインカメラの位置姿勢に設定
7. 特定のキーを押すと、サブカメラ等を無効化する[6]

実行結果
サブカメラ操作時
unity_dk2_001.png

メインカメラ移動結果
unity_dk2_002.png

参考資料
[1] Getting Started with Unity 5 - eBook
[2] 主婦ゆに!
[3] Unity 5で無料になった機能の使い方(4)
[4] [Unity]カメラ方向によって前方向を決める
[5] UnityをC#で超入門してみる #1 Unity入門の章
[6] Unity: GameObjectの非表示2つの方法と削除
web拍手 by FC2
posted by シンドラー at 20:39 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年07月13日

Unity 5.1.1f1でAlembicImporterのメモ

今回はMMDBridge[1]で出力したAlembic形式をUnityで使ってみるテストです。Alembic形式の読込みにはAlembicImporter[2]を使用させていただきました。

MMDBridge側の操作
1. MMDBridgeのダウンロード(現在ver 0.65)
2. MikuMikuDanceにコピー(現在ver 9.26)
3. mmdbridge_alembic_for_houdini.pyをエディタで開く→is_use_ogawa = Falseに変更
 (AlembicImporterがogawa形式に対応していない?)
4. MMD/MMDBridgeを使ってAlembic形式で出力(法線、UV出力で1000フレームで2GB程度のファイルサイズ)
5. outにalembic_file.mtlとalembic_file.abcがあるのでAlembicImporter\Assets\StreamingAssets\AlembicDataにコピー
 (StreamingAssetsの中に置かないといけないらしい)
6. outにテクスチャもあるのでAlembicImporter\Assets\AlembicTestDataにコピー

Unity側の操作
1. AlembicImporterのダウンロード
2. AlembicImporter\Assets\Test.unityを開く
3. デフォルトのanimatedXformedMeshを削除
4. Assets→Alembic→importでAlembicData\alembic_file.abcを開く
5. とりあえず再生を押して動作確認→なぜか初期位置にモデルが残っている

alembic_unity_001.png

6. alembic_file.mtlとxform_0_materialを見比べると、マテリアル数が2倍(0〜16までなのに33まである)あるので、17〜33まで無効化(Inspectorの一番左上のチェックを外す)する

alembic_unity_002.png

7. alembic_file.mtlを見てAlembicImporter\MaterialsにMaterial作成とテクスチャの割り当てを行う。Shaderは適当にCustomシェーダを作成(参考[3][4]など)。透過がうまくいかなくてCutOutになった。

alembic_unity_003.png

MMDTransparent.shader (half-lambert + transparent cutout)

8. xform_0_material_○とmaterial_0_○をDrag&Dropで関連付け

alembic_unity_004.png

9. cameraがcamera_xformが優先されてMain Cameraが効いていないのでFPS Controller[5]にする

alembic_unity_005.png

9.1. camera_xformのcameraを無効化(Inspectorの一番左上のチェックを外す)する
9.2. Main CameraをDeleteする
9.3. Assets→Import Package→CharactersでStandard Assetsをインストール
9.4. Standard Assets\FirstPersonCharacters\Prefabs\FPSControllerを画面内のDrag&Drop
9.5. 位置や大きさを調整、上下移動が激しいのでUse Head Bobをオフにする

alembic_unity_006.png

とりあえずこれで踊っているTda式Appendミクさん[6][7]を移動しながら眺められるところまでできました。まぁMMD for Unityなどを使用するのが主流だとは思いますが。

[1] http://mmdbridge.render.jp/
[2] https://github.com/unity3d-jp/AlembicImporter
[3] http://panzersoft.blog.fc2.com/blog-entry-61.html
[4] http://famme-fatale.hatenablog.com/entry/2015/03/18/124410
[5] http://www.sugawara.ac.jp/digital/blog/gamecg-unity-semi/unity-1stscene-03
[6] http://3d.nicovideo.jp/works/td1586
[7] http://www.nicovideo.jp/watch/sm23692832

web拍手 by FC2
posted by シンドラー at 03:14 | Comment(0) | TrackBack(0) | Unity 5 | このブログの読者になる | 更新情報をチェックする

2015年07月09日

MeshLabのスクリプトについてのメモ

MeshLabは色々機能があって便利ですね。あまり知られていないかもしれませんが、MeshLabはコマンドラインからバッチ処理ができたりします。その処理内容についてですが、GUI上で行った操作をスクリプトとして出力できて、それをコマンドライン実行時に引数で指定してあげればいいという優れものです。

やり方については[1]に書かれています。

で、バッチ処理する際のバッチファイル(Windows用)のメモです。
  set PATH=%PATH%;C:\Program Files\VCG\MeshLab

  for %%V in (*.obj) do (
    meshlabserver -i %%V -o output\%%V -s default.mlx
  )
  pause
最初にmeshlabserver.exeがあるディレクトリへのパスを設定します。次に、そのディレクトリ内にある全ての.objファイルに、default.mlxで指定したフィルタリング処理を行って、outputディレクトリに出力する、ということをしています。

ファイルフォーマットの変換だけなら、スクリプトなしで下記のようなバッチファイルで行けます。
  set PATH=%PATH%;C:\Program Files\VCG\MeshLab

  for %%V in (*.ply) do (
    meshlabserver -i %%V -o %%~nV.obj
  )
  pause
ディレクトリ内の.plyを.objに変換するサンプルです。%%~nVで拡張子なしファイル名になるので、それに.objを付けてあげれば出力ファイル名になります。

[1] http://www.andrewhazelden.com/blog/2012/04/automate-your-meshlab-workflow-with-mlx-filter-scripts/
web拍手 by FC2
posted by シンドラー at 18:56 | Comment(0) | TrackBack(0) | 日記 | このブログの読者になる | 更新情報をチェックする

2015年07月02日

OpenCVで海面生成のサンプル

いつの間にか7月ですね…。先月は忙しかった気がするので、今月はゆっくりしたいものです。

コメントに海面生成のソースが見たいという要望がありましたので、OpenCV 2.4.6ぐらいとfreeglutを使って作り直しました。時間が経っているので色々忘れていて困ったものです。

アルゴリズムとしては離散フーリエ変換による海面の生成 その1の参考文献に挙げている辺りです。一部のソースコードは参考文献のサイトのものをそのまま使っていた気がします。参考文献には特にライセンスに関する記述などは見当たりませんでしたが、もし問題があればどなたかお知らせください。また、OpenCVでFFTは[1]を参考にさせていただきました。

iOSということは携帯端末っぽいのでメモリとか計算時間とか厳しい気がしますので、事前計算してアニメーションメッシュに落とし込んでおくとか画像化しておくとかそういう工夫が必要そうです。

後バグがいろいろありそう(横幅と縦幅の文字を間違えていそうなところがあったので正方形(横幅=縦幅)以外ではエラーがでるかも)なので、気を付けてください。(このソースコードを使用して発生した如何なる不利益などについての責任を取りません)

以下ソース
opencv_ocean.zip

実行結果
opencv_ocean_001.png

シェーダもVBOも使わないシンプルワイヤフレーム表示しかしていません。

[1] http://opencv.jp/opencv2-x-samples/2d_dft_idft

web拍手 by FC2
posted by シンドラー at 18:00 | Comment(0) | TrackBack(0) | OpenGL & Metasequoia | このブログの読者になる | 更新情報をチェックする