« 2013年2月 | トップページ | 2013年9月 »

2013年3月

インタラクション2013・参加ノート3日目・インタラクティブセッション

インタラクション2013・3日目インタラクティブセッションの参加ノートです.
 
インタラクション2013HP
 
インタラクティブ発表(3)
 
(3EXB-42) Lighty: ペインティングインタフェースを用いたロボティック照明の制御
橋本 直(JST),盧 承鐸(韓国科学技術院),山中 太記(東大/JST),神山 洋一(JST),稲見 昌彦(慶大/JST),五十嵐 健夫(東大/JST)
 
部屋のライティングを,ペインティングツール上で一括制御できるシステムを展示.部屋のどの部分を明るくし,どの部分を暗くし,という指定を,ペインティング・ツールにより指定できる.ダイレクトマニュピュレーションならぬ,ダイレクトコントローリング.
 
Img_3382  
Img_3383  
Img_3381  
 
(3EXB-40) 映像の感性情報表現を助けるビデオカメラ
御手洗 紘子,吉高 淳夫(北陸先端大)
 
ビデオカメラと撮り方を撮影中にアドバイスしてくれるシステム.孤独感を演出したり,逆に共感を演出したりというカメラワークを,画面の指示に従ってズームしたり,カメラを動かせば,そのように撮れるというシステム.ズームが速すぎたり,遅すぎたりすると,注意してくれる.撮っている最中に注意してくれるというのは,新しいと思われる. 
 
Img_3386  
Img_3384  
Img_3385
 
 
(3EXB-49) 識別器を用いた手描き顔の検出システムの提案
島田 真衣,馬場 哲晃,串山 久美子(首都大)
 
手書きで書いた顔を自動で識別してくれて,さらにテーブルトップ上のスクリーンに手書きの顔にコンピュータグラフィックスを重畳表示してくれるシステム.手書きのバリエーションに対応するため,adaboostアルゴリズムを適用している.
 
Img_3387  
Img_3392
 
 
(3EXB-25) 対話者顔方向検出に基づく自己キャラクタ対面合成による身体的ビデオチャットシステムの開発
高田 友寛,中山 志穂,石井 裕,渡辺 富夫(岡山県立大)
 
ビデオチャットは,相手が自分とは全然違う所を見ていたりして,違和感を感じることが多い.そこで,相手の視線先に自分の代わりとなるアバタを置くことで,常に相手が自分のアバタに向かってしゃべりかけているように見えるシステムを開発している.相手の顔の向いている方向は顔画像認識で.さらにディスプレイから顔までの距離をKINECTでとっておき,視線先にアバタを置くようにしている.相手の視線先に自分のアバタを置くというのが,斬新なアイディア.
 
Img_3395  
Img_3394
 
 
(3EXB-04) 透影モーション: 異なる波長の赤外光を用いた動的な不可視影の生成
東納 ひかり,阪口 紗季,田中 琢磨,松下 光範(関西大)
 
Img_3397  
Img_3396  
 
赤外線の特定周波数のみ通すフィルムを張ったボードを複数枚張り,そこに赤外線ライトを照射すると,赤外線がテーブルに当たったところだけ,下からプロジェクターで光を照射するシステム.これにより,違う周波数のライトを当てることで,異なる影を映し出すことができるシステム.本物の影(赤外線)を使っているので,影が自然.アナログの影と,デジタルの映像照射を組み合わせているところが面白い.
 
 
(3EXB-09) ぴぴっとカート: レシピ提案型ショッピングカートシステム 
吉椿 薫,山本 伶,安村 通晃(慶大)
 
カートに食材を入れていくことで,その食材でできるレシピを提示.安売りの食材を思わずカートに入れてしまうことがあるが,それで作れる料理に悩むことがある.このシステムがあれば,それが解消される.アプリケーションとして面白い.
 
Img_3400  
Img_3398  
Img_3399
 
 
(3EXB-27) スマートフォン単体で動作する音声対話3Dエージェント「スマートメイちゃん」の開発
山本 大介,大浦 圭一郎,西村 良太,打矢 隆弘,内匠 逸,李 晃伸,徳田 恵一(名工大/JST)
 
音声をリアルタイムで認識して,それに反応してくれる3Dエージェントをスマートフォンで実現している.コンテンツは,ちゃんと本物のサービスから取ってきており,それを音声合成で知らせてくれる.音声合成の質も良い.
 
Img_3403  
Img_3402  
Img_3401
 
 
この日は,一般公開をしており,子供たちが見学する様子が見られた.こういう試みは本当にすばらしいと思う.
 
Img_3407  
Img_3410

|

インタラクション2013・参加ノート1日目・インタラクティブセッション

インタラクション2013・1日目インタラクティブセッションの参加ノートです.
インタラクション2013HP
 
Img_3230
 
インタラクティブ発表(1)
 
(1EXB-24) オブジェクト指向プログラミングの概念理解を支援するAnchorGardenシステムの評価
三浦 元喜(九工大),杉原 太郎(北陸先端大)
 
オブジェクト指向プログラミングの概念理解を支援するために,クラスとインスタンスの関係をグラフィカルに表現した研究.自分でクラスを指定して,そのインスタンスをメモリ空間に置くことで,対応するコードが提示される.これにより,クラスとインスタンスの概念と,そのコードの表記の両方を学習できる.
 
Img_3231  
Img_3232
 
(1EXB-06) タッチパネルに適した数式入力方法の提案と数学教材作成ツールの開発
前田 雅之(東京学芸大/大阪府立泉北高),加藤 直樹(東京学芸大)
JavaScriptベースで作成した数式入力IFを開発している.入力フィールドを用意しておき,そこにフォーカスを当て,アイコンのクリックによりそこに対応する文字や数学構造を入力できる
 
Img_3241  
Img_3239
 
(1EXB-31) SymmetricCursors: 対称的に動くダミーカーソルによる入力操作の隠蔽
渡邊 恵太,門城 拓(JST),樋口 文人,稲見 昌彦(慶大/JST),五十嵐 健夫(東大/JST)
 
ダミーカーソルを用いることで,暗証番号の入力などを盗み取られないようにする研究.確かに後ろで見ている方が,操作者のカーソルを同定するのが難しかった.ただ,操作者がカーソルを発見するために,特異な動きをすると,後ろで見ている人にも簡単に分かるケースがあった.逆に,後ろで見ている人には分からないように動かそうとすると,なかなか操作者もカーソルを発見するのが難しかった.とはいえ,マウス操作者以外には,カーソル同定は難しくなるのは確かであった.
 
Img_3245  
Img_3244  
 
(1EXB-35) コマンドリズムを用いたタップ入力による携帯端末操作手法
石山 英貴,高橋 伸,田中 二郎(筑波大)
 
Img_3247  
Img_3246
 
語が持つリズムを利用することにより,タブレット端末上でタップ入力することにより,アプリを起動するシステムを提案.
ツイッターは,たたったーのようにタップするとTwitterが立ち上がる.
バリエーションを増やすために,音の高低も画面の上部と下部に割り当てていた.ただ,音感の意識のない人は,使用するのが難しいかも.
 
(1EXB-28) スモールアクションコントローラ
木村 智之,岩瀬 大祐,長岡 大地,森山 智洋,引地 正太郎,高柳 友哉,飯島 照之,中村 雅男,野村 亮介,堅田 金太郎,太田 伸男,市川 晃,木田 純平,出嶌 創士,細井 祐太郎,松下 宗一郎(東京工科大)
 
Img_3252  
Img_3251
 
キーボードの標準的なフォームポジションから手を外さずに,マウスポインターを動かすことができる研究.ジャイロセンサー?を入れたグローブをはめて利用.
左右方向への動きは簡単だが,上下方向への動きは難しかった.あまり大きな動きをするのが難しいとの判断からか,画面を4*6ぐらいに分割していた.この分割はキーボードで選択するのだが,ブラインドタッチできないと,この指定が難しいと思われた.
 

|

インタラクション2013・参加ノート2日目・第2セッション

インタラクション2013・2日目第2セッションの参加ノートです.
インタラクション2013HP
 
一般講演発表4(3月1日(金)午後)
座長:清川 清(阪大)
 
(12) Emoballoon: ソーシャルタッチインタラクションのための柔らかな風船型インタフェース
中島 康祐,伊藤 雄一,林 勇介,池田 和章,藤田 和之,尾上 孝雄(阪大)
 
ソーシャルタッチインタラクションを実現するのに風船を利用
 
予備調査
風船を把持した参加者に怒りや愛情などの感情を表現してもらう.
怒り:殴打,わしづかみ
愛情:抱きしめる
感情がどれだけ表現できるかの納得感を取っている
 
圧力センサなどを備えた風船型インタフェースを開発.
 
Img_3349
 
Img_3352
 
識別性能の評価
SVM(RBF)利用
6基本動作+何もしないのデータを収集
 
Img_3351
 
被験者内識別:平均83.5%
被験者間識別:74.7%
 
複合的な動作も検出したい
 
 
(13) 陰極刺激の提示と停止による塩味味覚感度制御
中村 裕美(明治大/JSPS),宮下 芳明(明治大/JST)
 
Img_3353
 
陰極刺激が塩味の感じ方をコントロールできるという論文がもともとある.
 
Img_3355
 
塩味を与えるとなだらかに減衰する.
陰極刺激を与えると,刺激を与えていると塩味を感じなくなるが,
その刺激をとると,逆に塩味を強く感じる方に振れる.
 
食べた直後に陰極刺激を与えすぐに切ると,より塩味を濃く感じるのではないか?→に基づき装置を開発
 
Img_3356
 
Img_3360
 
食べることにより,体内を通り,閉路ができるので,それで食べたことを検出
 
Img_3361
 
14人の被験者にフォーク型装置で魚肉ソーセージを食べる.
実際に下に食材を当ててもらい,味についてアンケートを取っている. 
88%について陰極刺激停止後に塩味が濃いと感じたとのこと

|

インタラクション2013・参加ノート2日目・第1セッション

インタラクション2013・1日目第2セッションの参加ノートです.
 
インタラクション2013公式HP
 
一般講演発表3(3月1日(金)午前)
座長:五十嵐 健夫(東大)
 
(8) アクティブ音響センシングを用いた把持状態認識
大野 誠,志築 文太郎,田中 二郎(筑波大)
 
Img_3311
 
物体表面の音の伝わり方を特徴量とした機械学習により
把持状態を認識
 
Img_3291
 
Img_3293
 
スイープ信号を生成:低周波から高周波に変化させる信号
実際には非可聴域の信号
 
信号→フーリエ変換→SVM
特徴ベクトルは周波数スペクトル(500次元程度)
SVM RBF カーネル
 
Img_3299
 
携帯端末の把持に適用
プラスティックケースに適用
 
Img_3305
 
端末を握る力も認識することができる.
これにより片手操作でズームをしたりすることができる.
 
評価実験
7種類の把持姿勢:90-95%
3段階の把持力
 
多人数の学習データを使うとかなり精度は低下する
 
(土方感想)物体把持の検出に,アクティブ音響センシングを使うというアイディアが面白い点と,機会学習の新たな適用先としても非常に面白いと思います.
 
 
(9) トレース・セレクト
前田 篤彦,小林 稔(NTT)
 
Img_3312
 
テレビ上に表示された情報(ターゲット)を選択したい
タッチパッドリモコン(利点は可変速のスクロールができる)
 
タッチパッドリモコンでの選択をもっと容易にする
 
文字の特徴的なところだけ強調表示していて,
それをタッチパッドでジェスチャーするだけで選択できる.
この強調表示のパターンは,他とかぶらないようにする.
 
Img_3316
 
一つの文字に複数のジェスチャー候補を挙げる
ターゲットが複数出現しても柔軟に付与
 
Img_3319
 
アルゴリズム
1.付与できるジェスチャーが少ない順にソート
2.ジェスチャーを選択したら,その他の文字のジェスチャー候補から削除
 
現在は,英字のみ
一度に対応できるターゲット数は36個程度
 
Img_3324
 
(土方感想)文字全体のジェスチャーでなく,文字の部分にジェスチャーを割り当てている点,それを重複なく割り当てられる点がすばらしいと思います.
 
 
(10) Drag&Flick: タッチスクリーンを用いた視覚障がい者向け文字入力方式
青木 良輔,橋本 遼,瀬古 俊一,片岡 泰之,井原 雅行,渡辺 昌洋,小林 透(NTT)
 
指の移動方向で子音と母音を決定する入力方式
 
まず子音を決定してから母音を決定する
基本的には方向の切り替えで子音の決定を検出
 
Img_3330
 
Img_3331
 
子音は入力前にタップしなければ「あ」~「な」
タップすれば「は」~「わ」
 
隙間のある/なしも検証
 
実装:iPad zTouch HTML5, JavaScript
 
指の移動距離は被験者によって異なる.そのため移動方向の切替点検出は有効
 
隙間を通過した回数.後半の方が高くなる傾向がある.
慣れてくると大雑把な動きになる.
 
入力エラー:前半・後半であまり違いはない
 
入力速度:後半になるにつれて,慣れてきて短くなる
 
 
(11) 記憶の石: マルチタッチを用いた複数計算機間情報移動
池松 香,椎尾 一郎(お茶の水女子大)
 
端末間のデータの移動
マルチタッチを利用して複数コンピュータ間でのデータ移動を実現
画面上のオブジェクトをつまむようにして,端末間でデータを転送
 
Img_3337
 
指の間の距離も測っているのかな?同一オブジェクトの選択も考慮しているよう.
 
位置情報によるフィルタリング
指の形を無理なく保てる時間として5秒
指先配置情報の比較
 
指先配置に3本でタッチしたとして,その点を記憶,それで辺情報をとって,それが送信先の端末でも同じような点配置になっているかどうかを判定
 
視覚効果(石の画像)も検証
 
Soulder Surfing (手の形をまねして,データを盗み取り)についての項かも検証
Soulder Surfingの成功率は4%.しかもそうとう近くに寄らないと指の大きさを真似られないので,大丈夫そう.
 
(土方感想)Soulder Surfingについても評価を行っているのが良いと思います.石の形を提示することによる実験結果についても,面白いと思います.
 

|

インタラクション2013・参加ノート1日目・第2セッション

インタラクション2013・1日目第2セッションの参加ノートです.
 
インタラクション2013公式HP
 
一般講演発表2(2月28日(木)午後)
座長:角 康之(はこだて未来大)
 
(5) ラジへぇ: ラジオ聴取時における感想共有システム
加藤 由訓,苗村 健(東大)
 
Img_3255
 
画面を見続けないで使用可能な感想共有システム
Img_3256
 
実際のラジオ番組に適用.
出演者からは,実際に共感してもらえている感じがしたというような感想が得られていた.
 
(6) インタラクティブで柔軟なデジタル写真群動的表示法
北村 喜文(東北大),高本 恵介(阪大),高嶋 和毅(東北大),伊藤 雄一(阪大),横山 ひとみ(東北大),Liu Gengdai(西安電子科技大),Subramanian Sriram(ブリストル大)
 
Img_3262
 
個々の写真を生物のように動かしながら見せたい.
それぞれの写真は大きくなりたい.でも重なりたくないという
自立性を持たせて,表示させる.
 
Img_3265
 
領域を指定して片方に人の名前でキーワードを打ち,
もう一つ領域を指定してそこに人の名前でキーワードを打ち,
とするとそれぞれの領域にその人の写真が出る.
ANDの所には,両方が写っている写真が出る.
撮影日順にもソートできる.
 
Img_3267
 
できるだけ大きくなる
他の写真と重ならないように小さくなる(移動する)
関連研究では
創発アルゴリズム(局所伝搬法を利用した制約解消法)
集団行動シミュレーション,群衆シミュレーション.
などがある
 
土方感想:個人的には,上記の群衆シミュレーションとのアルゴリズムとしての違いに興味があります.個々の個体にルールを与え,自律分散的に動いても,大局的にはまとまりをもって表示されているのだと想像しますが,そのような考え方は群衆シミュレーションにもあるはずで,写真配置に適用した際のオリジナリティについて興味があります.
 
(7) あなたは見られている: 分散環境下におけるアウェアネス情報の取得とプライバシー維持の両立
松井 淳,山本 景子,倉本 到,辻野 嘉宏(京都工繊大)
 
Img_3271
 
カメラなどで,他人に自分の様子を伝える
→プライバシー情報侵害
 
Img_3272
 
多くの研究は伝達するアウェアネスを制限
この研究では伝達するアウェアネスを制限しない
他人に見られていると,Twitterはあとにしようとか,
いう行動をとる.これで自然にプライバシー侵害を防ぐ.
 
目的:人に匹敵する見られている感を与える
どのような提示を与えれば人に見られている感を与えられるか.
・顔写真
・見られている人の名前
・録画ランプ
・何も提示しない
・人が直接見る
などを比較.
 
これだけたくさんの実験を実施.
Img_3276
 
被験者は実験室で作業(誰も見ていない)
実験者がカメラで被験者を見る
 見始める前に音で知らせる
 いくつかの方法で見られている感を伝える.
Img_3277
 
見られている感の向上のために
・動画にする
・映像に加えて音も加える
(呼吸音・衣擦れ音)
音の提示がある方が良い結果を得た
PCの画面はカメラには映らないという安心感
→カメラを2つにする
 
リアルタイムの顔映像にする
→より見られている感が強まった
 
カメラでは見られている感が伝わらない
→人が窓越しに見る(生映像よりも見られている感が向上)
 
まとめはこういうこと
Img_3283

|

« 2013年2月 | トップページ | 2013年9月 »