ようこそゲストさん

Yanal-Lab News

2015/06/12(金) デモンストレーションセッション 岡元

DS2-03 実利用に向けた視線推定

DSCN3347.JPG

視線推定には従来角膜反射法などが知られているが非常に高精度の反面、高価な装置が必要であったり使用状況が限られてしまう問題があった
そこでこのデモでは単眼カメラでの視線推定を行い、実際に視線で画面を動かすことを行っていた。
頭部追跡や黒目追跡を行い視線推定を行う
まだまだ完全に実用できるというわけではないがそれなりに使える精度にはなっていた。
ぜひとももっと精度が上がり様々な場面に活用できるようになればよいと思った。


DS2-04 Deep Convolutional Neural Networkによる文字認識

DSCN3317.JPG

実際に撮影された道路画像よりナンバープレートを検出、その中の文字の認識をDCNNで行う。
ナンバープレートの検出はカスケード検出器を用いて行い、文字領域検出も単純にヒストグラムを作成することで実装している
DCNNは本当に文字の認識のみ 与える画像サイズは24×24で1.3msでの認識が可能
他の処理すべて含めても約100ms程度での実行が可能である
正直文字領域検出などもDCNNで行っているのかと思ったので少し肩透かしを食らった感じだがかなり高精度、高性能だった
サイズがサイズなので認識速度はそんなものでいけるのだなという印象
タイミング悪く聞けなかったのだが、今でも十分精度は良いが今後は領域検出も含めてDCNNになるのかなとは思う。

2015/06/12(金) インタラクティブセッション3 岡元

IS03-02 Watershed法を用いたトマトの裂開面積率の算出
トマトの身が裂けてしまっていると商品にならないが人目で判断するのは量が多い場合に大変である
そこでWatershedを用いて領域分割を行いその面積から裂けている部分の大きさを測定する
画像より輝度特徴などからシードを置く場所を自動で判断し、領域分割を行う
自分も食べ物の領域分割を行いたいのでWatershedなどの領域分割法の利用法には興味があった。中々使えそうではあるのだがこの研究自体だいぶトマトにチューニングされており(R成分の優遇など)直接は使えないのでこれをヒントにしうまく使っていきたい。

IS3-19 回帰型Deep Convolutional Neural Networkによる人検出と部位の位置推定



運転支援システムなどで用いられる人検出では、検出と同時に人との距離情報も非常に重要である
そこで頭と両足の3点を検出しその3点から距離を求める
DCNNでは人と部位の位置を同時に推定している
このことが結果にも好影響を与えており、単体で学習させるよりもデータセットごとに7%,25%の精度向上が見られた
距離検出においても高精度で10m離れた位置でも5%程度の誤差に収まっている

2015/06/12(金) デモンストレーションセッション_柿森

DS2-01
高速三次元手指認識に基づく仮想タンジブルユーザインタフェース 草野ら(埼玉大)

P6110260.JPG

ステレオカメラを手の三次元座標をリアルタイムで認識、下にある立体ディスプレイと同期させ、ディスプレイ上の積み木を押したり持ち上げたりできる。
ステレオカメラは200fpsで動いており、kinectは30fpsで使用に耐えられなかったとのこと。

実際に触ってみたところ、照明の真下だったこともあり、認識率はあまり高くなかった。
手は色情報で認識しているらしい。動作は非常に速かった。



DS2-10
低コストなスタンドアロン型将棋ロボットシステム 目野ら(熊本大)

P6110261.JPGP6110262.JPG

PCなどに接続せず単体で動く将棋ロボットで、10万以下で作れるとのこと。
思考ルーチンはオープンソースの物をそのまま使っている。
事前にSVMを用いて将棋の駒を学習しておく必要があり、将棋の駒をwebカメラで読み取る。
よって、駒を斜めに置いたりすると認識できない。

「成る」」時の動作は必見で、プラスチックの台に駒を置くことで滑り台の上を滑らせひっくり返し、それを指す。
思考ルーチンの関係か、相当強い。



DS1-11
畳み込みニューラルネットワークを用いた画像コンテンツフィルタリングにおける回帰分析の評価 井前ら(NTTコムウェア)

P6110272.JPG

タイトルはものすごく堅い感じだが、やっている内容はエロ画像と普通の画像をDCNNで学習し、エロ画像判別をするという内容。
あらかじめ学習データには1から5までの不適切度(5はR18)で与えて学習、出力は1から5の実数値である。
AlexNetの最終層のsoftmax関数を二乗和誤差関数に置き換えて実現しているようだ。

マニアックなエロ画像に対応しているかどうかは不明である。

2015/06/12(金) インタラクティブセッション3_柿森

IS3-36
漫画的表現手法を用いた動きの視覚化と新たなメディア表現の提案 秋元ら(愛知県立大)

P6120282.JPG

いわゆる岡部先生がやっているようなsiggraph系の研究で、動画を1枚の写真で要約するときの動きの表現に漫画の手法を用いるというもの。
ポスターではお掃除ロボットが動く様子が漫画のように示されている。
オプティカルフローなどを用いて動きを抽出する。技術的には新しいものはないが、表現が新しい。
ただし、背景が止まっており被写体が動いているパターンか、被写体が止まっており背景が動いているパターンでないと対応できないとのこと。

将来的にはスポーツで、ボールの動きや人の動きを自動的に線で表すことで、解説をする手助けになるかもしれない。



IS3-35
手描き線画に対する対話型自動彩色システムの検討 倉田ら(宇都宮大)

P6120283.JPG

こちらもsiggraph系の研究で、実写真を下敷きとし、ユーザに線画を書いてもらうことで、自動的に彩色をするというシステム。
彩色をする時の色情報を下敷きにした実写真からとってくる手法をとっている。
ただし、先行研究として写真を自動的に水彩画っぽくしたりするものがある。(Waterlogueで検索)
それに比べてユーザのインタラクションを必要とする分、プラスとなる要素がポスターから読めなかったので質問した。
答えとしては「あのシステムだと全て同じ水彩画になるが、こちらはユーザに描いてもらうから自由に描ける。」との答えだった。
個人的には理由として不満でした。ただ、アニメ業界などでは実写真をもとに背景を描くことが多いらしく、それらの支援になるかもしれないとのこと。
初めからそう書けばいいのに・・・
余談:話してる人があがり症なのか過呼吸になって死にそうになってました。



IS3-34
印象を加味した墨絵調画像生成手法の提案 加藤ら(愛知県立大)

P6120284.JPG
お詫び:ポスターを撮るの忘れていました。

写真を日本らしい墨絵に変換し、さらに墨絵のタッチに感性表現を与えるという研究。
入力できる感性語には「やわらかい」や「新鮮な」などがあった。
食べ物が新鮮に見える墨絵のタッチとは何かが分からないので、評価ができなかったが、やっていることは面白い。
まだまだ研究途中という様子でした。墨絵にする時の被写体の切り分けをマウスでやっていたので、lazy snappingやgrab cutを教えておきました。
また、坂本先生がオノマトペの定量化をしたという話もしておきました。

2015/06/11(木) インタラクティブセッション2_柿森

IS2-03
ウォークスルー型指静脈認証技術の開発 松田ら(日立)

P6110275.JPG

駅や空港などで本人確認の混雑を解消するために、歩きながら手のひらをかざす指静脈認証技術を提案している。
通常の静脈認証では手首を台の上に置いて固定し、環境光が入らないように認証を行っている。
本研究では改札でSuicaをタッチするように、手のひらをかざすことで認証を行う。
最大で1分あたり70回認識できる。
60fpsで認証しているので、一瞬手のひらを止める必要があるが、足を止めずに認証を行え、EER=0.0018%という精度を出している。

EER=0.0018%が静脈認証として安全なのか、改良の余地がある数字なのか聞いたところ、一般の静脈認証の精度が分からないと言われた。
ただ、空港で利用することを考えた時に、もう少し改善しなければならないという回答であった。



IS2-19
人とのインタラクションに着目した物体認識に関する基礎検討 石島ら(秋田県立大)

P6110277.JPGP6110278.JPG

鉛筆や箸など見分けにくいものを物体認識で見分ける方法として、人のインタラクションン(例えば「摘む」、「書く」など)を利用することで精度を高めようという試み。
同じ棒状のものが検出されても人が「書く」という動作をしていれば鉛筆と判定すべきであるということ。

しかし、ポスターで発表されていた内容は、それを行う前段階として、手が映り込んでいた時の認識精度の低下についてと、手を画像から消した時の認識率向上に関しての発表であり、目的までまだまだ遠い道のりだと感じた。
さらに、摘むという動作の認識方法(認識させるのかすらわからない)や、その情報をどのように物体認識に利用するのか具体案も出ていない状況だった。
もう少し研究が進んでいないとポスターでの議論もできないという印象を受けた。



IS2-21
画像検索における不正確なタグ付けの排除 植木ら(早稲田大)

P6110276.JPG

物体認識などで大量のデータを集める際に、google検索などではノイズが混じることがある。
それらの不正確なタグがついた画像を学習データから排除する手法を提案している。

手法はいたってシンプルであり、ノイズ入りの学習データで学習し、クロスバリデーションを行い、学習データ内で異なる結果が出た画像を排除する。(Pの学習データからNが出たらそれを削除。逆も同じ)
学習モデルはAlexNetの第6層を利用し、ロジスティック回帰で分類している。

こちらからの質問をいくつかしたので、それを載せる。
Q「ノイズが多いと破たんする気がするがどうなのか。」A「はい」
Q「タグが不一致だが似ている(車とバイク)などでは本手法は難しい気がする。」A「試していないが、そんな気がする。」
Q「不正確なタグがついた画像に引っ張られる危険性は無いのか。」A「少量であれば大丈夫。おそらくロジスティック回帰がそのあたりを回避していると思われるが、ほかの手法(SVMやDCNNで最後までやる)は試していないので分からない。」

1: Williamevorm 『https://www.bagssjp.com スーパーコピー 時計 https://www.bagssjp.com/menu...』 (2024/04/23 22:34)

2: DavidMix 『https://www.bagtojapan.com/ ブランドコピー https://www.bagtojapan.com/...』 (2024/04/23 23:22)

3: DwayneBlore 『https://www.copysale.net スーパーコピーブランド専門店 https://www.copysale.ne...』 (2024/04/23 23:58)