« WISS2011 参加メモ(2日目午前) | トップページ | WISS2011 参加メモ(3日目) »

WISS2011 参加メモ(2日目午後)

WISS2011(二日目午後)の参加メモです.

WISS2011(第19回インタラクティブシステムとソフトウェアに関するワークショップ)に参加してきましたので,参加メモを公開します.
http://www.wiss.org/WISS2011/

私の感想も書いておりますが,あくまで個人的な意見ですので,ご了承ください.また,発表内容の要約は私の理解した範囲内での記述ですので,ご了承ください.

13:30-14:50 セッション4「Web」(座長:三浦 元喜/チャット座長:岡部 誠)

    Gorotte:情報の消費者ではなく生産者になるための試み
        大坪五郎((株)ネクスト)

難解すぎて,ノート書けませんでした.

    視聴者のコメントに基づく動画検索および推薦システムの提案
        佃洸摂(京大),中村聡史(京都大学),田中克己(京大)

鏡音レンが最初から最後まで活躍していて泣ける動画が見たいとかが見れる.登場人物の活躍度のグラフが表示される.鏡音レンが活躍していて,途中で初音ミクが脇役で出てくるような動画が検索できる.
インデックスの作成.キャラクター,活躍パターン,動画の印象をインデックスをつける.動画につけられたコメントから,これらを推測する.活躍シーンは,登場人物の名前が出てくる前後k秒.活躍度は,その期間のコメント数.印象は,コメント中の印象語辞書(筆者らが作成したもの)を利用している.登場人物名は集合知的に登録してもらう試みも実施.

    smoon: Webの実体化による行動支援とその試作
        渡邊恵太(JST),佐藤彩夏(お茶の水女子大),松田聖大(JST),稲見昌彦(慶應大),五十嵐健夫(東大)

レピシのデータに連動しモーターで体積を変更する.すりきり一杯で適量が得られる.Webの情報から,その内容を直接実行できるように(自分でその内容を正確に理解しなくても使えるようにしたい)したい.料理に限って,計量行為を実施できるようにした.しかし,この壮大な思想を実現するには,全てのWeb情報に,直接実行のための計算機可読なデータを付与し,それをデバイスに転送する必要がある.その点について,どのように解決していくのか説明が欲しかった.また,すべてのドメインに対して,この考え方を実行するには,ドメインごとにデバイスを作らないといけない.それも現実的ではないと思った.
ただ,直接実行できるようにしたいという思想は評価したい.それに対するアプローチは一つではないはずで,今回のプレゼンはスプーンが前面に出てき過ぎてしまっているので,この思想の可能性を狭めてしまうのではないかと思った.

    DataWiki?を活用した社会的アプリケーションの構築
        江渡浩一郎(産総研),濱崎雅弘(産総研),沢田洋平(産総研)

以前に特別講演でご一緒したことがあるので,メモなし.(すみません)

15:10-16:30 セッション5「コミュニケーション」(座長:小池 英樹/チャット座長:中野 倫靖)
    笑顔は人を幸せにするのか?笑顔促進支援システム
        辻田眸(東京大学),暦本純一(東京大学/ソニーCSL)

笑顔を認識して,日常生活のあらゆる場面でフィードバックさせることを考えている.冷蔵庫に設置し,笑顔にならないと簡単に開かないようにして,10日間被験者に使ってもらい,笑顔の変化を見ている.赤ちゃんにも適用.笑わないとおもちゃが動かない.社会を幸せにする研究だと思った.小難しく方法論を考えている自分を思わず振り返ってしまった.

    Sharedo: To-doリストによる人-ロボット間のタスク共有
        加藤淳(東大/JSPS),坂本大介(東大/JST ERATO),五十嵐健夫(東大)

Todoを書いておき,それをエージェント(ロボット)と共有.エージェントは,その情報を基に,情報を推薦.インタラクティブにさらに絞り込みができる.人がやらないといけないタスクは,人がやる.タスクは,事前に定義しているのだろうか?また,タスクの絞り込みや詳細化を行うには,人間の指示することのセマンティクスを理解しないといけないが,どうしているのか?汎用性は?タスクは,買い物と掃除だけ?などいろいろ疑問に思った.
人がやることとロボットができること,ロボットがどこまでできるのかということを,意識しないで使えるところが良いと思った.この点は,非常に高く評価できる.

    身体性を考慮した着ぐるみ装着者支援システム
        岡崎辰彦(神戸大),寺田努(神戸大),塚本昌彦(神戸大)

つかぼーが出てきた.着ぐるみ支援インタフェースを考えた.着ぐるみの以下の3つの問題を解決.1.自分の姿勢が分からない.2.自分の視界が狭い.3.実際には鼻や口か視界を得ているので,自然に視線を合わせるのが難しい.目標となる画像と,今の自分の画像をHMD上に重畳表示している.顔の周囲に5つのカメラを設置.それをHMD上に表示.

Pc020057

    文の構造を明示的に指定・表示することによる異言語間コミュニケーション
        五十嵐健夫(東大)

機械翻訳は完全ではない.小さいまとまりは,機械翻訳に頼る.長い文は,構造を見せて人に判断を任せる.もともと複雑な条件や結論を持つことを,一文で説明するのは,そもそもそれを書く人間にとっても,大変なはず.人は,考えていることを木構造で分けて書いておいて,そのフレーズごとに機械翻訳をすれば,機械翻訳も失敗しない.非常に面白いアイディアである.
ただ,多義語の問題には弱いと思った.多くの自然言語処理はコーパスに基づく確率ベースで処理を行っているので,多義語にどの意味を紐づけるのかは,文全体を見ていることが多い.そこの問題はサポートしてやらないといけないと思った.

|

« WISS2011 参加メモ(2日目午前) | トップページ | WISS2011 参加メモ(3日目) »

Web研究」カテゴリの記事