▼ 2015/06/12(金) オーガナイズドセッション3 新しい分野への挑戦
OS3-01 展示施設におけるセンシング技術の実利用

概要:博物館や遺跡などでのARガイダンスシステムの紹介
マーカーを置く場合や画像認識で行う場合それぞれまだ問題がある
美観を損ねたり照明で映り方がだいぶ変わってしまう
なので
「美観をそこなわず光量にも左右されず気軽に所見で使え簡単、無人利用可能なシステム」が欲しいそう
んな無茶な
以下スライド概要
ガイダンスシステムにARはすでに適用されている
原画展、映像に入りこむようなシステムやバーチャル試着
実利用の課題
マーカーを置くと美しくない
しかし画像認識は精度が展示物に依存し難しい
展示施設ではスポットライトなどでよい照明環境にならない
タブレット端末などは高齢者の手に取ってもらえない
美観をそこなわず光量にも左右されず気軽に所見で使え簡単、無人利用可能なシステム
無理やん
ビジネスとしては回っている
日本人は品質にこだわる 品質の共有を行う
回転率を考慮した体験の設定
無人運用 複数人でもできる
グローバルは楽 簡単な技術でも喜んでもらえる
ただ契約や支払い、スケジュールなどが大変
展示施設向けロボット
受付案内
気持ちの推測
こんなものが画像で出来れば
OS3-02様々なモビリティへのセンシング技術

概要:様々な自立移動物体を作成している企業の取締役の方のお話
画像認識技術のお話などはほとんどなかったがインタラクティブな会社の取締役なのでお話は非常に面白かった
2020年オリンピックには自動運転タクシーと自分の後ろを勝手についてくるような台車を普及させるという意気込みが溢れていた
また来月にはドローンを発表するようで5Kカメラを用いて高精度な3Dデータを作成できるようだった欲しい
以下スライド概要
自立移動プラットフォーム
自動車や農業機械、航空機に適応
2014年末から行動実験開始
ロボットタクシー構想の実現 DeNAと共同で会社設立
ZMPは自動運転車への改造メーカ
タクシー・ハイヤー
過疎地での安価な乗り合いバスのような使い方
ステレオカメラを用いた画像認識による障害物検出機能
人間の身体を自動運転・・・?
技術的には2020年にはドライバレスの自動運転可能になる
問題は法律
OS3-03マルチメディア食事記録支援ツールFoodLogとそのデータ解析

概要:東大の相澤先生によるFoodLogのお話
食事を認識、管理する技術というのは他の健康管理手法よりも遅れている
そこで食事ログアプリケーションFoodLogを提案、開発した
最初はWebベースであったが今ではスマートフォンアプリにもなっている
画像を与えることで種類を返してきてくれる
画像を取り入れることでユーザからの評価実験においても結果がよくなっている
今後は精度の向上やビッグデータとしての活用法も考えていく
以下スライド内容
生活の基本「食」
「食」は情報技術にとって急激に顕在化してきたターゲット
食メディア研究会というものもできている
近年では様々な会議なども増えてきている
ワトソンを用いてレシピの作成、Googleも取り組む
食事記録
減るケアのための技術
エネルギー消費の記録・バイタルサイン・エネルギー摂取(食事記録)
マルチメディアによる食事記録
最初はWebベース、次にスマートフォンアプリ
2009年Webに画像を与え認識
栄養評価の目安を算出
食事記録・管理の機能を汎用化
様々なアプリケーションで再利用
食事ログアプリケーション
日本人男性の肥満が増え続けている
体重コントロールをする男性は全世代で5割以上
肥満になると糖尿病などの健康を害する恐れがある
食事のコントロールが非常に重要
今までの方式では料理名や量を手書きで記録
栄養士に提出する
スマートフォンも活用されているがテキストでは負担が大きい
画像を利用することで記録漏れの防止 他者による確認などができる
テキスト入力・探索がメイン 補助的に画像検索
ユーザー評価実験
画像有の方が満足度が高い
成果
企業などで健康指導支援において指導員の補助的に用いられている
糖尿病患者の自己管理支援
ビックデータとしてのFoodLog
100万件の食事記録
7万件のユニークな食事名
もともとは2000弱
食事の代表カテゴリを決めその中に内包させる
類似の名前を集め要約する
食事記録支援ツール
FoodLogの展開
日常食を継続的に収集するビックデータ
手間の更なる軽減、食事データの知識化、横断的なデータ活用へ
概要:博物館や遺跡などでのARガイダンスシステムの紹介
マーカーを置く場合や画像認識で行う場合それぞれまだ問題がある
美観を損ねたり照明で映り方がだいぶ変わってしまう
なので
「美観をそこなわず光量にも左右されず気軽に所見で使え簡単、無人利用可能なシステム」が欲しいそう
以下スライド概要
ガイダンスシステムにARはすでに適用されている
原画展、映像に入りこむようなシステムやバーチャル試着
実利用の課題
マーカーを置くと美しくない
しかし画像認識は精度が展示物に依存し難しい
展示施設ではスポットライトなどでよい照明環境にならない
タブレット端末などは高齢者の手に取ってもらえない
美観をそこなわず光量にも左右されず気軽に所見で使え簡単、無人利用可能なシステム
無理やん
ビジネスとしては回っている
日本人は品質にこだわる 品質の共有を行う
回転率を考慮した体験の設定
無人運用 複数人でもできる
グローバルは楽 簡単な技術でも喜んでもらえる
ただ契約や支払い、スケジュールなどが大変
展示施設向けロボット
受付案内
気持ちの推測
こんなものが画像で出来れば
OS3-02様々なモビリティへのセンシング技術
概要:様々な自立移動物体を作成している企業の取締役の方のお話
画像認識技術のお話などはほとんどなかったがインタラクティブな会社の取締役なのでお話は非常に面白かった
2020年オリンピックには自動運転タクシーと自分の後ろを勝手についてくるような台車を普及させるという意気込みが溢れていた
また来月にはドローンを発表するようで5Kカメラを用いて高精度な3Dデータを作成できるようだった
以下スライド概要
自立移動プラットフォーム
自動車や農業機械、航空機に適応
2014年末から行動実験開始
ロボットタクシー構想の実現 DeNAと共同で会社設立
ZMPは自動運転車への改造メーカ
タクシー・ハイヤー
過疎地での安価な乗り合いバスのような使い方
ステレオカメラを用いた画像認識による障害物検出機能
人間の身体を自動運転・・・?
技術的には2020年にはドライバレスの自動運転可能になる
問題は法律
OS3-03マルチメディア食事記録支援ツールFoodLogとそのデータ解析
概要:東大の相澤先生によるFoodLogのお話
食事を認識、管理する技術というのは他の健康管理手法よりも遅れている
そこで食事ログアプリケーションFoodLogを提案、開発した
最初はWebベースであったが今ではスマートフォンアプリにもなっている
画像を与えることで種類を返してきてくれる
画像を取り入れることでユーザからの評価実験においても結果がよくなっている
今後は精度の向上やビッグデータとしての活用法も考えていく
以下スライド内容
生活の基本「食」
「食」は情報技術にとって急激に顕在化してきたターゲット
食メディア研究会というものもできている
近年では様々な会議なども増えてきている
ワトソンを用いてレシピの作成、Googleも取り組む
食事記録
減るケアのための技術
エネルギー消費の記録・バイタルサイン・エネルギー摂取(食事記録)
マルチメディアによる食事記録
最初はWebベース、次にスマートフォンアプリ
2009年Webに画像を与え認識
栄養評価の目安を算出
食事記録・管理の機能を汎用化
様々なアプリケーションで再利用
食事ログアプリケーション
日本人男性の肥満が増え続けている
体重コントロールをする男性は全世代で5割以上
肥満になると糖尿病などの健康を害する恐れがある
食事のコントロールが非常に重要
今までの方式では料理名や量を手書きで記録
栄養士に提出する
スマートフォンも活用されているがテキストでは負担が大きい
画像を利用することで記録漏れの防止 他者による確認などができる
テキスト入力・探索がメイン 補助的に画像検索
ユーザー評価実験
画像有の方が満足度が高い
成果
企業などで健康指導支援において指導員の補助的に用いられている
糖尿病患者の自己管理支援
ビックデータとしてのFoodLog
100万件の食事記録
7万件のユニークな食事名
もともとは2000弱
食事の代表カテゴリを決めその中に内包させる
類似の名前を集め要約する
食事記録支援ツール
FoodLogの展開
日常食を継続的に収集するビックデータ
手間の更なる軽減、食事データの知識化、横断的なデータ活用へ
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/021/tb/
▼ 2015/06/12(金) オーガナイズドセッション2 「飛び立て!ドローン」
セッション全体の概要:ドローンについての基本的なお話
どのようにドローンとは制御されているのか?
画像技術はどのように活用されているのか?
期待されているのか?
GPS+コンパスだけではどうしても狂ってしまいFly-awayしてしまう場合があるが画像であればその確率を減らすことができる
実際に企業では実用化されており、ショッピングセンターなどの警備に用いられる予定
建物の構造や飛べる範囲を制限することで素早く正確に不審者などを撮影することができる
現在ドローンを作成するプロジェクトも立ち上がっており非常に小さくプログラミングができたりする
LinuxベースでOpenCVなどのライブラリを使うことが可能
基盤は10g程度で全体でも70g弱
ドローンは15万円欲しい
以下それぞれのスライド概要
OS2-01マルチコプターのFly-away:原因と画像による飛行制御の必要

無人飛行機にはグライダー型、マルチコプター型の2種類がある
どちらもGPSを利用した自動・半自動飛行が可能
実用的空撮:精密農業 遭難者救助 建造物の検査 荷物運搬 etc
広域画像などを撮影できる 画像関係者が携わってないけど・・・
完全な手動制御は不可能
センサで傾きなどを検知、修正しなければならない
墜落事故はいろいろな原因により発生
GPS信号の不足、コンパスの狂いなどなど
外界センサは必要
現状GPS+コンパス コンパス狂いやGPSが取れないとどっかに行ってしまう fly away
その点で画像センサは優れている 矛盾が生じにくい
Optical flow や SLAM
GPS+コンパスではfly awayが発生する
画像制御では発生しにくい Visual SLAMで飛ぶのが理想
OS2-02セキュリティにおけるドローンの活用とそれを支える技術

警備は常駐→巡回→オンラインへ
あとは基本NECの製品説明
OS3-03自立飛行ロボットPhenoxと研究開発プラットフォーム

最近では様々な研究に用いられだしている
じっとしていることは難しい
センサにはノイズが乗る センサフュージョンが必要
可視光画像 深度センサ Optical flow センサ
オンボードロボットの危険性 大きくて危険 小さくても1キロ
なので小さくする!
Phenox Lab 法人でも研究所でもないよ プロジェクト名くらい
Phenox 自律的飛行 オンボード 小型 プログラマブル をテーマに作成
超小型電子回路を作成 必要なもの色々乗って10g 飛べるのは5分
画像処理などはFPGAで
Linuxでのプログラムが可能で位置取得や画像取得ができる
Sshでログインして動かす
OpenCVとかも乗せれる
Phenox2 15万
どのようにドローンとは制御されているのか?
画像技術はどのように活用されているのか?
期待されているのか?
GPS+コンパスだけではどうしても狂ってしまいFly-awayしてしまう場合があるが画像であればその確率を減らすことができる
実際に企業では実用化されており、ショッピングセンターなどの警備に用いられる予定
建物の構造や飛べる範囲を制限することで素早く正確に不審者などを撮影することができる
現在ドローンを作成するプロジェクトも立ち上がっており非常に小さくプログラミングができたりする
LinuxベースでOpenCVなどのライブラリを使うことが可能
基盤は10g程度で全体でも70g弱
ドローンは15万円
以下それぞれのスライド概要
OS2-01マルチコプターのFly-away:原因と画像による飛行制御の必要
無人飛行機にはグライダー型、マルチコプター型の2種類がある
どちらもGPSを利用した自動・半自動飛行が可能
実用的空撮:精密農業 遭難者救助 建造物の検査 荷物運搬 etc
広域画像などを撮影できる 画像関係者が携わってないけど・・・
完全な手動制御は不可能
センサで傾きなどを検知、修正しなければならない
墜落事故はいろいろな原因により発生
GPS信号の不足、コンパスの狂いなどなど
外界センサは必要
現状GPS+コンパス コンパス狂いやGPSが取れないとどっかに行ってしまう fly away
その点で画像センサは優れている 矛盾が生じにくい
Optical flow や SLAM
GPS+コンパスではfly awayが発生する
画像制御では発生しにくい Visual SLAMで飛ぶのが理想
OS2-02セキュリティにおけるドローンの活用とそれを支える技術
警備は常駐→巡回→オンラインへ
あとは基本NECの製品説明
OS3-03自立飛行ロボットPhenoxと研究開発プラットフォーム
最近では様々な研究に用いられだしている
じっとしていることは難しい
センサにはノイズが乗る センサフュージョンが必要
可視光画像 深度センサ Optical flow センサ
オンボードロボットの危険性 大きくて危険 小さくても1キロ
なので小さくする!
Phenox Lab 法人でも研究所でもないよ プロジェクト名くらい
Phenox 自律的飛行 オンボード 小型 プログラマブル をテーマに作成
超小型電子回路を作成 必要なもの色々乗って10g 飛べるのは5分
画像処理などはFPGAで
Linuxでのプログラムが可能で位置取得や画像取得ができる
Sshでログインして動かす
OpenCVとかも乗せれる
Phenox2 15万
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/020/tb/
▼ 2015/06/12(金) デモンストレーションセッション 岡元
DS2-03 実利用に向けた視線推定

視線推定には従来角膜反射法などが知られているが非常に高精度の反面、高価な装置が必要であったり使用状況が限られてしまう問題があった
そこでこのデモでは単眼カメラでの視線推定を行い、実際に視線で画面を動かすことを行っていた。
頭部追跡や黒目追跡を行い視線推定を行う
まだまだ完全に実用できるというわけではないがそれなりに使える精度にはなっていた。
ぜひとももっと精度が上がり様々な場面に活用できるようになればよいと思った。
DS2-04 Deep Convolutional Neural Networkによる文字認識

実際に撮影された道路画像よりナンバープレートを検出、その中の文字の認識をDCNNで行う。
ナンバープレートの検出はカスケード検出器を用いて行い、文字領域検出も単純にヒストグラムを作成することで実装している
DCNNは本当に文字の認識のみ 与える画像サイズは24×24で1.3msでの認識が可能
他の処理すべて含めても約100ms程度での実行が可能である
正直文字領域検出などもDCNNで行っているのかと思ったので少し肩透かしを食らった感じだがかなり高精度、高性能だった
サイズがサイズなので認識速度はそんなものでいけるのだなという印象
タイミング悪く聞けなかったのだが、今でも十分精度は良いが今後は領域検出も含めてDCNNになるのかなとは思う。
視線推定には従来角膜反射法などが知られているが非常に高精度の反面、高価な装置が必要であったり使用状況が限られてしまう問題があった
そこでこのデモでは単眼カメラでの視線推定を行い、実際に視線で画面を動かすことを行っていた。
頭部追跡や黒目追跡を行い視線推定を行う
まだまだ完全に実用できるというわけではないがそれなりに使える精度にはなっていた。
ぜひとももっと精度が上がり様々な場面に活用できるようになればよいと思った。
DS2-04 Deep Convolutional Neural Networkによる文字認識
実際に撮影された道路画像よりナンバープレートを検出、その中の文字の認識をDCNNで行う。
ナンバープレートの検出はカスケード検出器を用いて行い、文字領域検出も単純にヒストグラムを作成することで実装している
DCNNは本当に文字の認識のみ 与える画像サイズは24×24で1.3msでの認識が可能
他の処理すべて含めても約100ms程度での実行が可能である
正直文字領域検出などもDCNNで行っているのかと思ったので少し肩透かしを食らった感じだがかなり高精度、高性能だった
サイズがサイズなので認識速度はそんなものでいけるのだなという印象
タイミング悪く聞けなかったのだが、今でも十分精度は良いが今後は領域検出も含めてDCNNになるのかなとは思う。
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/019/tb/
▼ 2015/06/12(金) インタラクティブセッション3 岡元
IS03-02 Watershed法を用いたトマトの裂開面積率の算出
トマトの身が裂けてしまっていると商品にならないが人目で判断するのは量が多い場合に大変である
そこでWatershedを用いて領域分割を行いその面積から裂けている部分の大きさを測定する
画像より輝度特徴などからシードを置く場所を自動で判断し、領域分割を行う
自分も食べ物の領域分割を行いたいのでWatershedなどの領域分割法の利用法には興味があった。中々使えそうではあるのだがこの研究自体だいぶトマトにチューニングされており(R成分の優遇など)直接は使えないのでこれをヒントにしうまく使っていきたい。
IS3-19 回帰型Deep Convolutional Neural Networkによる人検出と部位の位置推定
運転支援システムなどで用いられる人検出では、検出と同時に人との距離情報も非常に重要である
そこで頭と両足の3点を検出しその3点から距離を求める
DCNNでは人と部位の位置を同時に推定している
このことが結果にも好影響を与えており、単体で学習させるよりもデータセットごとに7%,25%の精度向上が見られた
距離検出においても高精度で10m離れた位置でも5%程度の誤差に収まっている
トマトの身が裂けてしまっていると商品にならないが人目で判断するのは量が多い場合に大変である
そこでWatershedを用いて領域分割を行いその面積から裂けている部分の大きさを測定する
画像より輝度特徴などからシードを置く場所を自動で判断し、領域分割を行う
自分も食べ物の領域分割を行いたいのでWatershedなどの領域分割法の利用法には興味があった。中々使えそうではあるのだがこの研究自体だいぶトマトにチューニングされており(R成分の優遇など)直接は使えないのでこれをヒントにしうまく使っていきたい。
IS3-19 回帰型Deep Convolutional Neural Networkによる人検出と部位の位置推定
運転支援システムなどで用いられる人検出では、検出と同時に人との距離情報も非常に重要である
そこで頭と両足の3点を検出しその3点から距離を求める
DCNNでは人と部位の位置を同時に推定している
このことが結果にも好影響を与えており、単体で学習させるよりもデータセットごとに7%,25%の精度向上が見られた
距離検出においても高精度で10m離れた位置でも5%程度の誤差に収まっている
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/018/tb/
▼ 2015/06/12(金) デモンストレーションセッション_柿森
DS2-01
高速三次元手指認識に基づく仮想タンジブルユーザインタフェース 草野ら(埼玉大)

ステレオカメラを手の三次元座標をリアルタイムで認識、下にある立体ディスプレイと同期させ、ディスプレイ上の積み木を押したり持ち上げたりできる。
ステレオカメラは200fpsで動いており、kinectは30fpsで使用に耐えられなかったとのこと。
実際に触ってみたところ、照明の真下だったこともあり、認識率はあまり高くなかった。
手は色情報で認識しているらしい。動作は非常に速かった。
DS2-10
低コストなスタンドアロン型将棋ロボットシステム 目野ら(熊本大)


PCなどに接続せず単体で動く将棋ロボットで、10万以下で作れるとのこと。
思考ルーチンはオープンソースの物をそのまま使っている。
事前にSVMを用いて将棋の駒を学習しておく必要があり、将棋の駒をwebカメラで読み取る。
よって、駒を斜めに置いたりすると認識できない。
「成る」」時の動作は必見で、プラスチックの台に駒を置くことで滑り台の上を滑らせひっくり返し、それを指す。
思考ルーチンの関係か、相当強い。
DS1-11
畳み込みニューラルネットワークを用いた画像コンテンツフィルタリングにおける回帰分析の評価 井前ら(NTTコムウェア)

タイトルはものすごく堅い感じだが、やっている内容はエロ画像と普通の画像をDCNNで学習し、エロ画像判別をするという内容。
あらかじめ学習データには1から5までの不適切度(5はR18)で与えて学習、出力は1から5の実数値である。
AlexNetの最終層のsoftmax関数を二乗和誤差関数に置き換えて実現しているようだ。
マニアックなエロ画像に対応しているかどうかは不明である。
高速三次元手指認識に基づく仮想タンジブルユーザインタフェース 草野ら(埼玉大)
ステレオカメラを手の三次元座標をリアルタイムで認識、下にある立体ディスプレイと同期させ、ディスプレイ上の積み木を押したり持ち上げたりできる。
ステレオカメラは200fpsで動いており、kinectは30fpsで使用に耐えられなかったとのこと。
実際に触ってみたところ、照明の真下だったこともあり、認識率はあまり高くなかった。
手は色情報で認識しているらしい。動作は非常に速かった。
DS2-10
低コストなスタンドアロン型将棋ロボットシステム 目野ら(熊本大)
PCなどに接続せず単体で動く将棋ロボットで、10万以下で作れるとのこと。
思考ルーチンはオープンソースの物をそのまま使っている。
事前にSVMを用いて将棋の駒を学習しておく必要があり、将棋の駒をwebカメラで読み取る。
よって、駒を斜めに置いたりすると認識できない。
「成る」」時の動作は必見で、プラスチックの台に駒を置くことで滑り台の上を滑らせひっくり返し、それを指す。
思考ルーチンの関係か、相当強い。
DS1-11
畳み込みニューラルネットワークを用いた画像コンテンツフィルタリングにおける回帰分析の評価 井前ら(NTTコムウェア)
タイトルはものすごく堅い感じだが、やっている内容はエロ画像と普通の画像をDCNNで学習し、エロ画像判別をするという内容。
あらかじめ学習データには1から5までの不適切度(5はR18)で与えて学習、出力は1から5の実数値である。
AlexNetの最終層のsoftmax関数を二乗和誤差関数に置き換えて実現しているようだ。
マニアックなエロ画像に対応しているかどうかは不明である。
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/017/tb/
▼ 2015/06/12(金) インタラクティブセッション3_柿森
IS3-36
漫画的表現手法を用いた動きの視覚化と新たなメディア表現の提案 秋元ら(愛知県立大)

いわゆる岡部先生がやっているようなsiggraph系の研究で、動画を1枚の写真で要約するときの動きの表現に漫画の手法を用いるというもの。
ポスターではお掃除ロボットが動く様子が漫画のように示されている。
オプティカルフローなどを用いて動きを抽出する。技術的には新しいものはないが、表現が新しい。
ただし、背景が止まっており被写体が動いているパターンか、被写体が止まっており背景が動いているパターンでないと対応できないとのこと。
将来的にはスポーツで、ボールの動きや人の動きを自動的に線で表すことで、解説をする手助けになるかもしれない。
IS3-35
手描き線画に対する対話型自動彩色システムの検討 倉田ら(宇都宮大)

こちらもsiggraph系の研究で、実写真を下敷きとし、ユーザに線画を書いてもらうことで、自動的に彩色をするというシステム。
彩色をする時の色情報を下敷きにした実写真からとってくる手法をとっている。
ただし、先行研究として写真を自動的に水彩画っぽくしたりするものがある。(Waterlogueで検索)
それに比べてユーザのインタラクションを必要とする分、プラスとなる要素がポスターから読めなかったので質問した。
答えとしては「あのシステムだと全て同じ水彩画になるが、こちらはユーザに描いてもらうから自由に描ける。」との答えだった。
個人的には理由として不満でした。ただ、アニメ業界などでは実写真をもとに背景を描くことが多いらしく、それらの支援になるかもしれないとのこと。
初めからそう書けばいいのに・・・
余談:話してる人があがり症なのか過呼吸になって死にそうになってました。
IS3-34
印象を加味した墨絵調画像生成手法の提案 加藤ら(愛知県立大)

お詫び:ポスターを撮るの忘れていました。
写真を日本らしい墨絵に変換し、さらに墨絵のタッチに感性表現を与えるという研究。
入力できる感性語には「やわらかい」や「新鮮な」などがあった。
食べ物が新鮮に見える墨絵のタッチとは何かが分からないので、評価ができなかったが、やっていることは面白い。
まだまだ研究途中という様子でした。墨絵にする時の被写体の切り分けをマウスでやっていたので、lazy snappingやgrab cutを教えておきました。
また、坂本先生がオノマトペの定量化をしたという話もしておきました。
漫画的表現手法を用いた動きの視覚化と新たなメディア表現の提案 秋元ら(愛知県立大)
いわゆる岡部先生がやっているようなsiggraph系の研究で、動画を1枚の写真で要約するときの動きの表現に漫画の手法を用いるというもの。
ポスターではお掃除ロボットが動く様子が漫画のように示されている。
オプティカルフローなどを用いて動きを抽出する。技術的には新しいものはないが、表現が新しい。
ただし、背景が止まっており被写体が動いているパターンか、被写体が止まっており背景が動いているパターンでないと対応できないとのこと。
将来的にはスポーツで、ボールの動きや人の動きを自動的に線で表すことで、解説をする手助けになるかもしれない。
IS3-35
手描き線画に対する対話型自動彩色システムの検討 倉田ら(宇都宮大)
こちらもsiggraph系の研究で、実写真を下敷きとし、ユーザに線画を書いてもらうことで、自動的に彩色をするというシステム。
彩色をする時の色情報を下敷きにした実写真からとってくる手法をとっている。
ただし、先行研究として写真を自動的に水彩画っぽくしたりするものがある。(Waterlogueで検索)
それに比べてユーザのインタラクションを必要とする分、プラスとなる要素がポスターから読めなかったので質問した。
答えとしては「あのシステムだと全て同じ水彩画になるが、こちらはユーザに描いてもらうから自由に描ける。」との答えだった。
個人的には理由として不満でした。ただ、アニメ業界などでは実写真をもとに背景を描くことが多いらしく、それらの支援になるかもしれないとのこと。
初めからそう書けばいいのに・・・
余談:話してる人があがり症なのか過呼吸になって死にそうになってました。
IS3-34
印象を加味した墨絵調画像生成手法の提案 加藤ら(愛知県立大)
お詫び:ポスターを撮るの忘れていました。
写真を日本らしい墨絵に変換し、さらに墨絵のタッチに感性表現を与えるという研究。
入力できる感性語には「やわらかい」や「新鮮な」などがあった。
食べ物が新鮮に見える墨絵のタッチとは何かが分からないので、評価ができなかったが、やっていることは面白い。
まだまだ研究途中という様子でした。墨絵にする時の被写体の切り分けをマウスでやっていたので、lazy snappingやgrab cutを教えておきました。
また、坂本先生がオノマトペの定量化をしたという話もしておきました。
- TB-URL http://mm.cs.uec.ac.jp/adiary/adiary.cgi/yanailab/016/tb/
1: ヤナイ 2015年06月12日(金) 午後11時40分
100万件とは凄いですね.我々は仕方ないので,Twitterから収集するしかなさそうです.10億件以上ののログがあるので,いろいろな食事が発見できるはずですが,Foodlogと違って家庭食は少なくて外食が多いかも?