ようこそゲストさん

Yanal-Lab News

メッセージ欄

2015年6月の日記

一覧で表示する

2015/06/12(金) デモンストレーションセッション_柿森

DS2-01
高速三次元手指認識に基づく仮想タンジブルユーザインタフェース 草野ら(埼玉大)

P6110260.JPG

ステレオカメラを手の三次元座標をリアルタイムで認識、下にある立体ディスプレイと同期させ、ディスプレイ上の積み木を押したり持ち上げたりできる。
ステレオカメラは200fpsで動いており、kinectは30fpsで使用に耐えられなかったとのこと。

実際に触ってみたところ、照明の真下だったこともあり、認識率はあまり高くなかった。
手は色情報で認識しているらしい。動作は非常に速かった。



DS2-10
低コストなスタンドアロン型将棋ロボットシステム 目野ら(熊本大)

P6110261.JPGP6110262.JPG

PCなどに接続せず単体で動く将棋ロボットで、10万以下で作れるとのこと。
思考ルーチンはオープンソースの物をそのまま使っている。
事前にSVMを用いて将棋の駒を学習しておく必要があり、将棋の駒をwebカメラで読み取る。
よって、駒を斜めに置いたりすると認識できない。

「成る」」時の動作は必見で、プラスチックの台に駒を置くことで滑り台の上を滑らせひっくり返し、それを指す。
思考ルーチンの関係か、相当強い。



DS1-11
畳み込みニューラルネットワークを用いた画像コンテンツフィルタリングにおける回帰分析の評価 井前ら(NTTコムウェア)

P6110272.JPG

タイトルはものすごく堅い感じだが、やっている内容はエロ画像と普通の画像をDCNNで学習し、エロ画像判別をするという内容。
あらかじめ学習データには1から5までの不適切度(5はR18)で与えて学習、出力は1から5の実数値である。
AlexNetの最終層のsoftmax関数を二乗和誤差関数に置き換えて実現しているようだ。

マニアックなエロ画像に対応しているかどうかは不明である。

2015/06/12(金) インタラクティブセッション3_柿森

IS3-36
漫画的表現手法を用いた動きの視覚化と新たなメディア表現の提案 秋元ら(愛知県立大)

P6120282.JPG

いわゆる岡部先生がやっているようなsiggraph系の研究で、動画を1枚の写真で要約するときの動きの表現に漫画の手法を用いるというもの。
ポスターではお掃除ロボットが動く様子が漫画のように示されている。
オプティカルフローなどを用いて動きを抽出する。技術的には新しいものはないが、表現が新しい。
ただし、背景が止まっており被写体が動いているパターンか、被写体が止まっており背景が動いているパターンでないと対応できないとのこと。

将来的にはスポーツで、ボールの動きや人の動きを自動的に線で表すことで、解説をする手助けになるかもしれない。



IS3-35
手描き線画に対する対話型自動彩色システムの検討 倉田ら(宇都宮大)

P6120283.JPG

こちらもsiggraph系の研究で、実写真を下敷きとし、ユーザに線画を書いてもらうことで、自動的に彩色をするというシステム。
彩色をする時の色情報を下敷きにした実写真からとってくる手法をとっている。
ただし、先行研究として写真を自動的に水彩画っぽくしたりするものがある。(Waterlogueで検索)
それに比べてユーザのインタラクションを必要とする分、プラスとなる要素がポスターから読めなかったので質問した。
答えとしては「あのシステムだと全て同じ水彩画になるが、こちらはユーザに描いてもらうから自由に描ける。」との答えだった。
個人的には理由として不満でした。ただ、アニメ業界などでは実写真をもとに背景を描くことが多いらしく、それらの支援になるかもしれないとのこと。
初めからそう書けばいいのに・・・
余談:話してる人があがり症なのか過呼吸になって死にそうになってました。



IS3-34
印象を加味した墨絵調画像生成手法の提案 加藤ら(愛知県立大)

P6120284.JPG
お詫び:ポスターを撮るの忘れていました。

写真を日本らしい墨絵に変換し、さらに墨絵のタッチに感性表現を与えるという研究。
入力できる感性語には「やわらかい」や「新鮮な」などがあった。
食べ物が新鮮に見える墨絵のタッチとは何かが分からないので、評価ができなかったが、やっていることは面白い。
まだまだ研究途中という様子でした。墨絵にする時の被写体の切り分けをマウスでやっていたので、lazy snappingやgrab cutを教えておきました。
また、坂本先生がオノマトペの定量化をしたという話もしておきました。

2015/06/11(木) インタラクティブセッション2_柿森

IS2-03
ウォークスルー型指静脈認証技術の開発 松田ら(日立)

P6110275.JPG

駅や空港などで本人確認の混雑を解消するために、歩きながら手のひらをかざす指静脈認証技術を提案している。
通常の静脈認証では手首を台の上に置いて固定し、環境光が入らないように認証を行っている。
本研究では改札でSuicaをタッチするように、手のひらをかざすことで認証を行う。
最大で1分あたり70回認識できる。
60fpsで認証しているので、一瞬手のひらを止める必要があるが、足を止めずに認証を行え、EER=0.0018%という精度を出している。

EER=0.0018%が静脈認証として安全なのか、改良の余地がある数字なのか聞いたところ、一般の静脈認証の精度が分からないと言われた。
ただ、空港で利用することを考えた時に、もう少し改善しなければならないという回答であった。



IS2-19
人とのインタラクションに着目した物体認識に関する基礎検討 石島ら(秋田県立大)

P6110277.JPGP6110278.JPG

鉛筆や箸など見分けにくいものを物体認識で見分ける方法として、人のインタラクションン(例えば「摘む」、「書く」など)を利用することで精度を高めようという試み。
同じ棒状のものが検出されても人が「書く」という動作をしていれば鉛筆と判定すべきであるということ。

しかし、ポスターで発表されていた内容は、それを行う前段階として、手が映り込んでいた時の認識精度の低下についてと、手を画像から消した時の認識率向上に関しての発表であり、目的までまだまだ遠い道のりだと感じた。
さらに、摘むという動作の認識方法(認識させるのかすらわからない)や、その情報をどのように物体認識に利用するのか具体案も出ていない状況だった。
もう少し研究が進んでいないとポスターでの議論もできないという印象を受けた。



IS2-21
画像検索における不正確なタグ付けの排除 植木ら(早稲田大)

P6110276.JPG

物体認識などで大量のデータを集める際に、google検索などではノイズが混じることがある。
それらの不正確なタグがついた画像を学習データから排除する手法を提案している。

手法はいたってシンプルであり、ノイズ入りの学習データで学習し、クロスバリデーションを行い、学習データ内で異なる結果が出た画像を排除する。(Pの学習データからNが出たらそれを削除。逆も同じ)
学習モデルはAlexNetの第6層を利用し、ロジスティック回帰で分類している。

こちらからの質問をいくつかしたので、それを載せる。
Q「ノイズが多いと破たんする気がするがどうなのか。」A「はい」
Q「タグが不一致だが似ている(車とバイク)などでは本手法は難しい気がする。」A「試していないが、そんな気がする。」
Q「不正確なタグがついた画像に引っ張られる危険性は無いのか。」A「少量であれば大丈夫。おそらくロジスティック回帰がそのあたりを回避していると思われるが、ほかの手法(SVMやDCNNで最後までやる)は試していないので分からない。」

1: Williamevorm 『https://www.bagssjp.com スーパーコピー 時計 https://www.bagssjp.com/menu...』 (2024/04/23 22:34)

2: DavidMix 『https://www.bagtojapan.com/ ブランドコピー https://www.bagtojapan.com/...』 (2024/04/23 23:22)

3: DwayneBlore 『https://www.copysale.net スーパーコピーブランド専門店 https://www.copysale.ne...』 (2024/04/23 23:58)

2015/06/11(木) インタラクティブセッション1_柿森

IS1-10
偏光情報の画像認識処理への応用 笠原ら(RICOH)

P6110258.JPG
P6110257.JPG

光の偏光情報はRGBとは別の物理量であり、偏光情報とRGB情報の二つを同時に用いることで、認識精度を上昇させた。
例えば、自動車が路面や白線、対向車の認識を行うとき、認識精度は太陽などに大きな影響を受けてしまう。
車の認識では偏光情報を用いることで、ガラス部分に大きな特徴が現れることが分かった。

認識はSVMを用いているがDCNNの入力として偏光情報を用いることもできるのではないかと考えられる。



IS1-35
注視誘導技術に基づく誘目性を考慮したセールス・プロモーションツールのデザイン支援システム 滝本ら(岡山県立大学)

P6110267.JPGP6110268.JPG

店頭ディスプレイやPOP広告などを作成する場合、人の視線を引き付ける配色を考慮したデザイン支援システムを提案している。
例えば、コーヒーの広告を載せる場合、ユーザは茶色を想像する。その茶色をもとに、顕著性マップから目立つ色を強調することで、広告を目立たせる。
色の調和性なども考慮しており、ムーン・スペンサーモデルや色彩調和性モデルを利用している。
評価実験では、デザイン学部の学生にデザインしてもらった物と比較実験を行い、似た色を提示できたことで、有用性を示せた。

しかし、問題点として、店頭ディスプレイは果たして目立つだけでよいのか。最終的に購買に繋がらなければ意味がないのではないか。
また、周囲の環境と調和した色を選ばなければ周囲から浮いた広告になってしまう。
これらの問題はまだ残っていると語っていた。

2015/06/11(木) インタラクティブセッション2 岡元

IS2-17 CT画像向け放射状特徴点サンプリングによる位置合わせ手法の開発

DSCN3329.JPG

柳井研OBの松田さんの名前が入っている発表
(残念ながらポスターではお会いできず…)

今までは年々変化する腫瘍を見つけるためには医師が
手動で何枚もの画像を参照し探し出さなければならなかったが
それを自動で行う研究

腫瘍は変化するので鍵として使うことはできないが
周辺の血管や肺の壁などから特徴を抽出
その特徴をマッチングさせていき
最もマッチする個所を探す

特徴には速度を考慮しBRIEF特徴量を使用している
今までは30秒近くかかっていた作業が4~5程度で自動で
行われるので医師の負担軽減が期待される

IS2-13 Deep Convolutional Neural Networkによる顔器官検出における最適なミニバッチ作成方法

DSCN3328.JPG

DCNNに与えるサンプルの増加方法についての考察

方法は3つ提案されている
学習サンプルに変化を与え、そのサンプルを繰り返し使用する方法
学習サンプルからセットを決めそれに対して毎回異なる変化を与え繰り返し使用する方法
学習サンプルからランダムにセットを決めランダムに変化を与える方法

著者らも一番下のものが結果がよくなると考えていたが結果はそうではなく
一番上の手法が最も性能が良かった

これは決まった点を決めるタスクでは様々な変化を与えて学習を行うよりも
決まった同じ画像で学習を繰り返し確実に器官を検出できた方が良かった

これはこのようなタスクなのでこのような結果になったが
一般物体認識などでは同様な結果が出るとは限らない