simplestarの技術ブログ

目的を書いて、思想と試行、結果と考察、そして具体的な手段を記録します。

とっても簡単!強化学習の実践

強化学習とは?
それは、行動の結果得られる報酬が最も大きくなる行動を選択する仕組みにおいて
その報酬を計算して求めることです。

例えば「働けばお金がもらえる」という場合は「お金」が報酬となります。
報酬の設定のしかたは問題によって、また設定する人それぞれですので、デザイナーとしての腕の見せ所となるでしょう。

今回はお金を報酬にして、強化学習を行う非常に簡単なゲームを作ります。

まず最初に理論的な話を進めます。
お付き合いください。

最初に述べた、行動の結果得られる報酬が最も大きくなる行動を選択する仕組みとは、いったいどういったものなのでしょうか?

f:id:simplestar_tech:20170114185111j:plain

それは、上図の構成において、エージェントと呼ばれるキャラクターが行動Aか行動Bを報酬の大きい方を選んで行動する仕組みのことを指します。

ここで出てくる報酬Aと報酬Bを計算で求めることが強化学習です。

数学の記号を使わず報酬=~という形の計算式を立てると

報酬A=宝箱ゲット、お金いっぱい
報酬B=トラップによるダメージ、ケガしてお金もらえない

と表せます。
次に記号を使って表してみましょう。

f:id:simplestar_tech:20170114225045j:plain

U()で示した値は行動の後、状態S'a, 状態S'b, になったときに得られる金額の値を示しています。
つまり、行動によって得られる報酬です。
この値は今回のデザイナーである私が決めました。(とにかく宝箱側のスコアが高ければ良いという考えで設定しています。)

強化学習で出てくる式で、よく読者の理解を妨げるのが、ここでいう「報酬の大きい値を選択する」という処理まで計算式に含めるところです。
ではその式を見てみましょう。

f:id:simplestar_tech:20170115100038j:plain

πで表した値は戦略と呼ばれるもので、つまりは行動Aか行動Bいずれかを出力する関数を表します。
argmaxというのは報酬を最大にするactionを選ぶ操作を意味し、つまりは行動Aか行動Bいずれか報酬の大きいactionを選択するということを意味します。
戦略を決めるのは私たち人間です。
今回の私のデザインではactionにaが入ることになるでしょう。
エージェントとなるキャラクター性を示す戦略にすると、きっと愛着のあるAIが作れると思います。

ここまで見てきた計算式について、報酬は人の手によってあらかじめデザインされていますので、代入のみで完結しています。
では、もし報酬がデザインされていない行動が出てきた場合は、どのようにその報酬を設定すればよいのでしょうか?

次の図を見てください。

f:id:simplestar_tech:20170115102015j:plain

状態Sになる前に、状態S0が存在するとします。
状態S0から状態S0へと進むための行動Xの結果得られる報酬Xはどのようにして求めるか?という問題を今私たちは解こうとしています。

ここで、報酬X=~という数式を立ててみたいと思います。

報酬X=走る、疲れてお金もらえない

確かに、今までの報酬の決め方に従えばこれで完成なのですが、大半の読者は報酬設定が間違っていると指摘できると思います。
そう、状態Sは状態S0に比べてお金持ちになれる可能性が高くなっています。
この期待の高まりを式に反映させたのが次の式です。

報酬X=走る、疲れてお金もらえない + 宝箱ゲット、お金いっぱい or トラップによるダメージ、ケガしてお金もらえない

これが強化学習の説明で最初に出てくる方程式 Bellman equation の原始的な姿です。

そういえば

報酬A=宝箱ゲット、お金いっぱい
報酬B=トラップによるダメージ、ケガしてお金もらえない

と定義していましたので、この原始的な式は次の形で表せます。

報酬X=走る、疲れてお金もらえない + 報酬A or 報酬B

さて、戦略πを採用すると、必ず報酬の大きい方を選ぶことになりますから、今回の私のデザインに従えば、式は次の形になります。

報酬X=走る、疲れてお金もらえない + 報酬A

そろそろ記号を使った数式で報酬Xを表してみます。

f:id:simplestar_tech:20170115105156j:plain

U(S)は状態Sへ進むための行動の報酬Xを表しています。
R(S)は走る、疲れてお金もらえないという状態Sそのものから得られる報酬を表しています。今回の私のデザインであればR(S)=0です。
maxは最も大きな値を選択して返す関数を表しています。
U(S'action)は、報酬Aまたは報酬Bいずれかを示しています。

ここで、報酬Xに報酬Aが減衰することなくそのままの値として代入されてしまいますが、これで本当に良いのでしょうか?
たとえば行動Xを行っている間に、誰かが先に宝箱を開けてお金を持っていってしまっているかもしれません。

そこで、割引率を考慮しようという発想が生まれます。
次の式が広く知れわたっている Bellman equation の姿です。

f:id:simplestar_tech:20170115110909j:plain

より詳細を学んで、この式が Bellman equation の形と違うと指摘する人が出てくると思いますが
Bellman equation に出てくる Model は、今回の私のデザインでは 1 ですので、確率表記は省略されています。
その方が最初は理解しやすいのでそうしています。

私たちはここまで、「もし報酬がデザインされていない行動が出てきた場合は、どのようにその報酬を設定すればよいのでしょうか?」
という問題に対して考えてきました。
今ならば答えられます。

Bellman equation を使って求めればよいのです。

それでは強化学習を実践してみましょう。
実践編の最初の作業としては、行動の結果得られる報酬が最も大きくなる行動を選択する仕組みというものから作ってみましょう。

f:id:simplestar_tech:20170115115027j:plain

作りました。

実装の方も概念を共有した後、コードを示したいと思います。

学習過程にて変動する行動に付随する報酬と、固定された状態に設定される報酬があります。
状態には行動リストがあり、行動には結果の状態があります。
それをつなぎ合わせて、Bellman equation を解く式をプログラムすると次の通り

using System.Collections;
using System.Collections.Generic;
using UnityEngine;

public struct StateInfo
{
    public float reward;
    public ActionInfo[] actions;
}

public struct ActionInfo
{
    public float reward;
    public StateInfo targetState;
}

public class AgentBehaviour : MonoBehaviour {

    public float _gamma = 0.99f;
    public StateInfo[] _states = new StateInfo[4];

	void Start () {
        StateInfo state0 = new StateInfo();
        state0.reward = 0;
        state0.actions = new ActionInfo[1];

        StateInfo state = new StateInfo();
        state.reward = 0;
        state.actions = new ActionInfo[2];

        StateInfo stateA = new StateInfo();
        stateA.reward = 1000000;
        stateA.actions = null;

        StateInfo stateB = new StateInfo();
        stateB.reward = 0;
        stateB.actions = null;

        state0.actions[0].targetState = state;
        state.actions[0].targetState = stateA;
        state.actions[1].targetState = stateB;

        _states[0] = state0;
        _states[1] = state;
        _states[2] = stateA;
        _states[3] = stateB;

        int count = 3;
        while (0 < --count)
        {
            Learn();
        }
    }

    private void Learn()
    {
        for (int i = 0; i < _states.Length; i++)
        {
            LearnState(ref _states[i]);
        }
    }

    private void LearnState(ref StateInfo state)
    {
        if (null != state.actions)
        {
            for (int j = 0; j < state.actions.Length; j++)
            {
                LearnAction(ref state.actions[j]);
            }
        }
    }

    private void LearnAction(ref ActionInfo action)
    {
        action.reward = action.targetState.reward + _gamma * GetMaxReward(ref action.targetState);
    }

    private static float GetMaxReward(ref StateInfo targetState)
    {
        if (null == targetState.actions)
        {
            return 0;
        }

        float maxReward = 0;
        for (int i = 0; i < targetState.actions.Length; i++)
        {
            if (maxReward < targetState.actions[i].reward)
            {
                maxReward = targetState.actions[i].reward;
            }
        }
        return maxReward;
    }
}

繰り返し計算を2回すると、行動の報酬が収束することを確認しました。
これが、最も単純な強化学習の例だと思います。

あとは、この学習結果を参照して、最も大きな報酬の行動を選択して行動する仕組みを書けば、ゲームの完成です。
ゲームの実装はハンザツなので省略します。

ユニティちゃんライセンス

この作品はユニティちゃんライセンス条項の元に提供されています

強化学習の Value Iteration と Q-Learning の違い

強化学習には Value Iteration と Q-Learning の2通りの学習方法が存在します。

Value Iteration で登場する Model が既知か、未知かを見て
未知の場合は、試行錯誤を繰り返す Q-Learning しか選べません。

Value Iteration にて登場する報酬は人間のさじ加減で決めます。
行動と結果の組み合わせを示す Model もまた、人間のさじ加減で決めます。
Model の見当がつかない場合は Q-Learning に逃げます。
Q-Learning とは試行錯誤を続けて、ずっとずっと試行錯誤を続けて、いつの日か人間のさじ加減で決めた報酬が得られたなら、それまでの行動経路の評価値をちょっとだけ上げるという学習方法です。
このときの評価値のちょっとした上げ方も人間のさじ加減で決めます。

いくつか解説を見てきましたが、ハンザツなままとらえている人が多いですね。
私はこんな風に、すっきりととらえてみました。

間違えたら、その行動を避けるようになり
当たったら、それまでの行動を取りやすくなる
これなら確かに、経験から学ぶ人にそっくりな行動を取るのかもしれませんね。

エピソード(思い出)を記録し、呼び起こす強化学習

強化学習について(私が知識を増やすために)学んでいますが、Value Iteration と Q-Learning の違いを書く前に(この後書こうと思っています。)
一つ昔に高校時代の友人から教えてもらった、エピソードに紐づく知識というものとの組み合わせを思いつきました。
simplestar-tech.hatenablog.com

↑この時に友人に教わった。

強化学習は状態とその時選択できる行動に評価値が与えられるというだけで、エピソードまでは思い起こせません。
これから行われるだろう未来は、強化学習時に無数に調べてきたわけですが、実行時は結果的に評価値という数字しか知識に残っていません。

行動選択はできるようになりますが、どうして?と尋ねられても、評価値が高いからという答えしか返せないのです。
そこで、その行動の評価値を大きく変動させた強烈なエピソードを思い出として記録し、未来予測として、どうして?と尋ねられた時に答える。
という、人工知能を作ってみたら、AIからその時の気持ちのようなものを教えてもらえるような気がしてきました。

という、アイディアを忘れないように書き留めておくという記事でした。

AI的な調べもの

最近、社内の勉強会でその存在を再確認したのですが、みなさんは OpenAI をご存知ですか?

OpenAI は組織名のようです。
コンテンツは Gym にあるとのことです。

OpenAI Gymは、強化学習を開発、評価するための プラットフォームです。
色々な環境が用意されているようで、次のリンクで一覧できました。
OpenAI Gym

ところで強化学習というのは、環境に対して行動の選択肢から行動を選択して行動し、その報酬(Reward)を最終的な結果から推定して、何度もこれを繰り返すことにより経験的にその推定Rewardが最大になる行動を選べるようにする手法です。

重要なので「経験的にその推定Rewardが最大」というところを強調しますが、つまりはローカルミニマムでさえなく、今までで一番良かった(かもしれない)試行結果に落ち着くということです。

強化学習について調べていたところ、次のQiitaの記事が、知りたいことをたくさん書いてくれていました。
qiita.com

まぁ、人間もRewardの推定を間違えている人がいますし
頭が良くても、学習データが間違っていると、これもまた誤ったローカルミニマムに陥りますので
「強化学習」=「間違える機械学習」というイメージを持っています。

追記:
時間をおいて深く読んでみたところ、疑問に思うところがあるので別の資料を当たりながら、自分なりの理解メモを追記しておきます。
まず、この等式をBellman equationと言います。と示されている式
選択肢aが複数あり、その中からひとつa選択したときにs'が無数に存在するため、∑計算ができるという式です。
無数にs'が存在することを言及していなかったので、ちょっと悩みました。
次に、value iteration の変数決定について疑問に思いました。
報酬を設定するという操作が、どういう操作なのか、例えば、人が考えるおよその値を設定し、その値をすこしずつ変化させるのか?
それよりも、一体何が収束するのか?書かれていないので調べることになりました。
調べた結果、現在わかっている範囲では初期値にすべての報酬を0とするという手法。
しかし、びっくりしたことに、そうすると計算を繰り返しても0しか返ってきませんので、何も変化が生まれません。
なるほど自分が疑問に思っていることは正しいようだが、利用したい側の立場としてはうれしくないですね。
は!書いていて気づいたことに、0以外になる瞬間が存在していました。
それは、正解が確定した瞬間と失敗が確定した瞬間です。
そのときに報酬が+1,-1になるようにしておけば、その一手前にて報酬が更新されます。
そこから波紋が広がるように、報酬の更新が走るんですね。
その報酬更新がいつか収束することが期待できるようで、このようにして報酬を決める手法がValue Iterationです。
どうやら私はそのValue Iterationの問題点をずっと指摘していたようです。
正解するまで計算を繰り返さないかぎり、値の更新が行われないということは、大量の計算が必要ということを示しており、一般的にValue Iterationでは、解を求めることは難しいケースが多いとのことです。
もう一つ、Q-Learningというものがあるそうで、次はそちらを理解してみたいと思います。

プラス、人間の行動の動機としての、欲求について知りたかったので、心理学の方を調べてみました。

その点について良さそうな記事を見つけました。
人生の学習 - マズローの心理学

なんとも、人生における幸せな生活とは何かについて考えさせられる記事でしたが
同じような欲求をデジタルなAIにも持たせてみようと考えてみました。

マズローの心理学の話で参考になった部分は次の二つ

「ヨナ・コンプレックス」と呼ばれる、欲求に気付くまいと潜在意識に押し込める臆病な行動
「欲求の段階説」という考え方
人の欲求は6つの段階
1.「生理的欲求」食事とか睡眠とかの欲求
2.「安全の欲求」1.が安定すること
3.「社会的欲求と愛・所属の欲求」人間社会で生きる者としては2.と同じかな?と私は思っている
4.「評価欲求」(他の人から価値ある人だと見なされること、他の人の中で価値ある人であること)
5.「自己実現の欲求」(道徳的であること、問題解決、先入観を持たないこと、事実を受け入れること)
6.「自己超越の欲求」(創造性、自発性、子供のような素朴さ、文化の超越、至高体験

なるほど、これらについて強化学習のRewardを設計してみようかと思います。

調べることから始めていたのですが、ここで目的がだんだん形になってきました。
頑張って言葉にすると、AIが行動するマイクロワールドを作り、それを観察できるオンラインゲームを作ってみたいと考えています。

いつかの AI の記事を書いているときに、AI に身体性を持たせる必要があると結論づけて終わっていたと思います。(終わっていなかったらごめん、あとで確認する)
その身体性をマイクロワールドの中で与えてあげようという試みです。

次回は、本当に簡単なものを作ってみようと思います。

UnityでMMDのPMXを表情モーフ付きでダンスするFBXとしてアセット利用する話

今回のトピックは Unity で MMD モデルにモーション付けて再生するというものです。

みなさんご存じ(?)のMikuMikuDance(MMD)と呼ばれるソフトウェアは、VPVPにて公開されているの3DCG動画作成ツールです。

表情豊かに歌って踊る3DCGコンテンツを探すと、ほとんどMMDに関わるものであり、データの形式はPMX, VMDです。
これらを Unity で扱う FBX 形式のデータに変換して再生する方法を紹介します。

まずは Unity 5.5.0f2 (64-bit) リリース: November 25, 2016 を起動します。
何もアセットが無い状態で、そのままだと空のシーンとなっています。

まず初めに行うのが Stereoarts Homepage さんのページに行き、MMD4Mecanim (Beta) の最新版を入手し
解説にあるチュートリアル(基本編)に従って操作し、任意の PMX ファイルを FBX に変換してシーンに配置します。

今回は任意の PMX に
3d.nicovideo.jp
からダウンロードしてきた、ぽんぷ長式の「村雨」を使うことにします。

チュートリアルを間違えなければ、このようにモデルを配置できると思います。

f:id:simplestar_tech:20161127160653j:plain

次に、踊ってもらいたい楽曲と楽曲用のモーションを選びます。

今回は Girls(EasyPop) にしようと思います。
楽曲を購入し(iTunesだと200円でした、やしぃー!)
iTunesの編集→設定メニューからインポート設定をいじってmp3に変換できるようにし、mp3ファイルを用意します。
これを Unity の Audio Source に設定すれば Audio Clip の完成です。

再生すると、ゲーム内で楽曲が響き渡ります。

次はモーションの VMD ファイルです。
bowlroll.net
こちらからダウンロードしてきました。

MMD4Mecanimのチュートリアルに従い、VMDを読み込ませてFBXのアニメーションとします。
変換にけっこう時間かかります。
出来上がったFBXにはアニメーションが含まれるようになっていて、これを Unity の Animator Controller のステートに設定すれば
ステート遷移したときに、踊ってくれるようになります。

表情やリップのVMDも一緒に変換していればFBXにアニメーションとして入っているのですが、モーフは再生されません。
f:id:simplestar_tech:20161127180733j:plain

最後に表情モーフをつける方法を紹介します。
対象となるキャラクターオブジェクトのコンポーネントに次のスクリプトコンポーネントを追加します。
MMD4MecanimAnimMorphHelper.cs
表情やリップのVMDの変換を終えていれば.animファイルが作られていますので、これらをそれぞれのMMD4MecanimAnimMorphHelperに設定します。
f:id:simplestar_tech:20161127181801j:plain
再生するアニメーション名の欄が空欄になっているので、それぞれ「表情」「リップ」を書き込みます。
(アニメーション名を任意に変更しているのであれば、その名前を使います)

※公式の記述を見つけていませんが、スクリプトコンポーネントを追加する順番でモーフは上書きされる仕様のようです。
リップが再生されない場合は、後から追加した AnimMorphHelperコンポーネントの方にリップを追加しましょう。
リップが表情に上書きされるようになり、口パクしてくれるようになると思います。(私の環境では、実際になりました。)

これで、全身のモーションに加えて、表情とリップのモーフが付くようになります。
f:id:simplestar_tech:20161127181655j:plain

おまけ:
購入した楽曲と、モーション付けに参照された曲がちょっとずれていました。
え、今までの人たちはオリジナルの曲を使っていない!?
仕方なく、私は購入した楽曲の余白を調整して、音ズレを回避しています。

参考までに mp3 ファイルの余白調整には
mp3DirectCut - Fast MP3 and AAC editor and MP3 recorder
を使いました。

UnrealEngine4.13で頂点シェーダー

頂点シェーディング方法を探して次のプロジェクトを見つけたのですが
github.com

確かにコンピュートシェーダーとピクセルシェーダは機能していました。
描画ターゲットに結果を書き出して利用する分にはこれが良いかもしれません。

しかし、ずいぶんとトライ&エラーしづらい作りのようです。

ふと World Position Offset に頂点座標ごとのオフセット量を与えられたら
自分の目的が達成できるのではないかと思い、確かめてみました。

こちら、自身の頂点座標(ローカル)の値を使って頂点位置をずらすマテリアルを適用した結果です。

f:id:simplestar_tech:20160912002916j:plain

できたじゃないですか。

どうやって?
こうやって↓

f:id:simplestar_tech:20160912003444j:plain

位置と法線が得られつつ、頂点位置を変更できるとなると
Shape Matching 法とか、弾性体表現が実装できそう。

今日は良い技法を発見しました。

VRHMDのポジショントラッキングについて

VRHMDといっても、今の時代
HTC Vive ですか?
Oculus Rift ですか?
PSVR ですか?
と大きく三つのVRHMDを想像できる時代となりました。
(え、そんなの知らない?そんな方は、この記事は読めないかも。)

今回は Oculus Rift や PSVR で使われている HMD のトラッキングシステムについて
実際に作れるところまで原理を詳しく解説していきたいと思います。

HMD をIR成分も撮像できるカメラ越しに見てみましょう。
すると、次のように小さなLEDが何個も光っていることが確認できます。

f:id:simplestar_tech:20160828175047j:plain
url:http://virtuix1.rssing.com/chan-14788923/all_p2.html

上の写真は Oculus DK2 の頃の様子
現在リリースされている最新の製品版 Rift では次のような配置になっています。

f:id:simplestar_tech:20160828175434j:plain
f:id:simplestar_tech:20160828175442j:plain
url:https://tinhte.vn/threads/ben-trong-oculus-rift-cv1-de-sua-chua-day-gon-gang-cham-diem-7-10.2566840/

これらの LED をカメラで追跡することで、HMDの位置姿勢を求めています。
ん?どのカメラ?

それは、以下のようなカメラです。

f:id:simplestar_tech:20160828175957j:plain
url:http://www.pcworld.com/article/2138461/eyes-on-oculus-rifts-position-tracking-dev-kit-2-vr-headset-blows-the-first-dev-kit-away.html

こちらは DK2 時代のものですね。

f:id:simplestar_tech:20160828180053j:plain
url:http://www.snapvrs.org/how-to-set-up-the-oculus-rift/

そしてこちらが Rift 製品版のカメラ

これらカメラなしでポジショントラッキングを実現しようとしても、できないことに気付くでしょう。
そう、先ほども述べたように、このカメラで HMD の複数の LED を追跡することで HMD の位置姿勢を求めています。

カメラで HMD の複数の LED を追跡することってどういうこと?
とイメージできない人が多いと思いますので、実際にそれを行っている様子が載ったページを以下に紹介します。

www.roadtovr.com

ここまでの話をまとめると、HMD の LED をカメラで追跡しているということです。
あとはこの追跡情報を使って HMD の位置姿勢を求める計算の部分に焦点を当てて、説明していきます。

f:id:simplestar_tech:20160828181651g:plain
url:http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPIES/MARBLE/high/pia/solving.htm

イメージ平面に投影された影から元の三次元空間のオブジェクトの位置姿勢を求める計算をすることになります。
ここに良い例が示されていますが、3点の対応だけでは、姿勢が一意に定まらないことがイメージできます。

数学についての知識を得るときは、図形的解釈を伴うように、つねに右脳を働かせて問題をイメージすることが大切です。(たぶん)

そして、問題を具体的に解くためには定式化しなければなりません。
ここで現在のオブジェクトの位置姿勢から考えられるイメージ平面での投影点と、実際に観測されたイメージ平面での投影点とのイメージ平面での距離(イメージスペースエラー)を小さくするように、位置姿勢を修正していくことで問題を解きたいと思います。

上の言葉で示したのが、右脳を働かせて得たイメージです。
そして、そのイメージスペースエラーは式に落とし込めます。

最終的に E = Σe^2 の誤差二乗和で評価関数を定義して
これの多次元でのお椀の底を目指して最適化問題を解きます。

この式、よく見ると求めるパラメータに対して非線形となっているため
非線形最小化問題を解くアプローチを取ることになります。

非線形最適化問題を解く方法として、さまざまなものがあります。
勾配降下法、ニュートン法ガウス・ニュートン法、レーベンバーグ・マーカート法など
微分できない場合についても含めると、もっとあるのですが、私の勉強不足のため今はこれくらいしかうまく説明できません。

さて、ポジショントラッキングは最初にある程度正しい姿勢を求めることができたなら、その後はワープでもしない限り前回の計算結果に似た姿勢となることが期待できます。
そこで、ある程度解に近いことを条件として与えられますので、ガウス・ニュートン法を選択すると効率的に答えに安定してたどり着けると考えられます。
そのガウス・ニュートン法を用いて得られるのは、姿勢情報の更新量です。
得られた更新量を初期姿勢に適用して、解となる HMD の位置姿勢を得るのです。

はい、ここまでの話をすべてまとめると

1.LEDを4点以上カメラで追跡する
2.イメージスペースエラーの式を立てる
3.最適化数学を解く

どんな問題も、最後は誤差関数の最小化に帰着されるそうです。
数学は基礎ですが、訓練が必要なので、いきなり超えられる壁ではありません。
なので、先にわかっている人からイメージを聞き出して、まずは同じイメージを持つことが大切です。

わかっている人が周りにいない場合は、理系の大学に行きましょう。
大学の准教授や教授はこうしたイメージをもっています。
お金を払って聞きましょう。

さて、書きたいことを書いたので、ここで終わりにします。