1.1 研究の背景
今までは全く別の分野とされていた多くの重要な領域での関心が人工現実感の概念で統合し得る一つの目標を目指して進展している。また、バーチャルリアリティ(仮想現実感)は科学技術として進展し、広く各種の産業へ応用されるにとどまらず、将来の人間の生活形態を変えるのではないかとまで言われている。
わが国において、通産省・工業技術院・機械技術研究所がテレイグジスタンス(宇宙開発の分野において、遠隔地に投入したロボットを、意のままに制御しようという試み)の研究を開始したのが1981年頃である。そして、1990年に(財)日本工業技術振興会が「人工現実感とテレイグジスタンス研究会」発足させた。東京大学工学部において立体映像のマニピュレーションの研究を開始したのが1984年頃である。1987年頃、ATR通信システム研究所では臨場感通信の研究の一環として、大スクリーンと「データグローブ」を使用して人工現実感の研究をスタートしている。わが国において人工現実感フィーバーが始まったのは、1988年くらいからである。アート・建築などの分野の研究者がまず、「人工現実感」という概念そのものを日本に紹介したのが、この頃である。エンジニアリングの分野では、以前は「3次元操作環境」などといういわれ方をしていたが、「人工現実感」というキーワードが与えられたことにより、分野としての求心力が大いに高まったといえよう[1]。
1.2 研究の目的
「臨場感」という言葉は、人工現実感技術の中で重要なキーワードの一つである。仮想の世界にあたかも自分が存在しているかのごとく見せることは現実感の生成の上で不可欠である。
人間が外界から受ける情報のうち、8割ないし9割までが視覚を通じている。従って、現実感の生成において、視覚の果たす役割は格段に大きい。
聴覚は、それ自身が外界から受け取る情報量は必ずしも大きいものではない。しかしながら、画像などと同時に使用された場合、補助チャンネルとして、非常に大きな役割を発揮することがある。視覚は、大量の情報量を一度に認識するのに向いている感覚であるが、その指向性は非常に強い。視覚は眼球を向けている方向しか視覚情報を受信することができない。そのため、周辺視に向かって視覚の感度は急激に低下する。それに対して、聴覚は、基本的に無指向的な特性を有している感覚である。すなわち、全周囲からの聴覚情報を同時に感じることができる。従って、聴覚は、視覚の見えない部分(死角の部分)において進行している状況を常にモニタしたり、視覚によって、重点的にモニタすべき場所を聴覚によって決定することができる。仮想環境に、聴覚情報を補充することは、多くのメリットを生み出すこととなる[2]。
本研究では、昨年度作成された本学人文棟の内部情報に臨場感を強化することにより現実感の要因を明らかにする。さらに、ネットワークを介して多くの人々にそれらの情報を提示するようにする。
第2章 バーチャルリアリティ(仮想現実感)
1989年、コンピュータ科学の分野では「バーチャルリアリティ」と呼ばれる技術が登場した。バーチャルリアリティの技術を用いることによって私たちはコンピュータによってつくられた人工の世界を現実の世界と同じように体験できるようになった。
バーチャル(Virtual)は実際には存在しないが、本質や意味において存在しているという意味である。リアリティ(Reality)とは、実際の出来事、実在、事態という意味である。すなわち、バーチャルリアリティとは、「実際には存在しないが、本質において存在するような事実、あるいは実際の出来事」と言い換えることができる。また、計算機によって人工的に合成された現実のことを指して「人工現実感」(アーティフィシャル・リアリティ:Artificial
Reality)と呼ばれることもある。バーチャルリアリティの技術は、感覚の技術と呼ばれる。人間の思考を補完し、その知的能力をより高めていく道具としてバーチャルリアリティの役割は大きい。バーチャルリアリティの技術を用いることによってそのままでは直観的に理解することの困難な情報を人間にわかりやすく表示することが可能である。
ウォークスルーは、現実では不可能なもの、現実をシミュレートしたものを人工的に、より現実らしく示してくれる仮想世界の中で自由に行動できるシステムである。現在、バーチャルリアリティの技術をインターネット上に展開するための試みが各所でなされている。VRML(Virtual Reality Modeling Language)という言語を用いれば、様々な場所、様々な人々によって開発されたバーチャルリアリティの空間をネットワークを介して体験することが可能になる[3]。
3.1 VRMLの歴史
VRMLは、SF、仮想現実、3次元図形、そしてWorld
Wide Web(WWW)の流行が、融合したものからスタートした。
Mark
PesceとTony Parisiが普通(2次元)のHTMLページを見るブラウザから着想を得て、インターネット上にある3次元オブジェクトを見るためのブラウザのプロトタイプをまとめあげた。このプロトタイプは1994年の5月、スイスのジュネーブでのWWWの一周年の会議に持ち込まれ、WWWの仮想現実のインターフェイスを議論するために、Birds-of-a-Feather(BOF)会議が開かれた。いくらかのBOFの出席者たちは、Web間で共通に操作する3次元グラフィックの視覚化ツールを組み立てるための進行中の計画を説明した。出席者は3Dsceneの記述やWWWのhyperlinkを明記するための共通の言語(仮想現実のためのHTMLに似た言語)を持つこれらのツールの必要性を認めた。そして、Virtual
Reality Markup Language(VRML)という表現(言い方)がつくり出された。このグループはこの会議後、VRMLの仕様を決める仕事を始めることを決議した。「Markup」という単語は後になって、VRMLの図形的な(グラフィカルな)性質を反映するために「Modeling」と変更された。
ジュネーブのBOF会議の後すぐに、VRMLの最初のバージョンの仕様の開発を議論するために、WWW-vrmlメーリング・リストがつくられた。このリストに対して圧倒的な反応があった。その中からシリコングラフィックス(SGI)社のOpen
Inventor用3次元ファイルフォーマットを採用することで、初めて大きな一歩を踏み出した。
1994年の10月までには、VRMLは進歩を遂げ、草案として第2回WWW会議に提出されるほどになった。VRML1.0の公式な開始期日である1995年4月までには、いくつかのVRML1.0対応のブラウザが利用可能になった。
VRML1.0はインターネットに対応した3次元図形形式としてスタートした。しかし、VRML1.0が、動きのないシーンを記述するための言語であるという点が最大の問題だった。
VRMLコミュニティは、VRML2.0標準に向けて候補を募っており、RFP(repuest
for proposals:提案募集プロセス)を通じて行われた。RFPは1996年1月にWWW上でなされ、2月4日に提出が締め切られた。その結果、Moving
Worldsの提案をVRML2.0へ向けた共通の出発点へとまとめあげる作業が始められた[3]。
3.2 VRMLの特徴
VRMLはインターネットを介して3次元図形を扱う言語である。これまでのWWWブラウザは大量の蓄積された情報を探索し、ネットワーク間を移動する使い方が一般的であったが、VRMLを使うことによりWWWブラウザで3次元空間を自由に移動でき、表示画面は移動した場所から見える情景にリアルタイムに変化するようになった。また、WWWブラウザで見るためにはVRML用のプラグイン(Live3D、Cosmo Playerなど)が必要である。
(1)VRML1.0とVRML2.0の共通点
@3次元図形の記述言語である。
Aインターネット上で仮想世界を見ることができる。
B仮想世界にリンクを貼ることができ、Webサーバ上に置かれた他のファイルへ移動することができる。
(2)VRML1.0の特徴
動きのないシーンを記述するための言語である。仮想世界を構築し、人々がその内部を動き回ったり作成者が置いた物を眺めることはできても、利用者がその世界や物とインタラクションすることはできない。
(3)VRML2.0の特徴
@動きのあるシーンを記述することができる。
A音声や動画などのマルチメディア機能がある。
本研究で使用したソフトウェアの特徴を以下に記す。
(1)Internet3D Space Builder v.2.1(以下ISB)
ParaGraph International,Incが提供する3次元図形を構築するソフトウェアである。
このソフトウェアの特徴を以下に示す。
@VRML2.0対応である。
A3次元図形を作成できる。
B3次元形状を空間に配置し、上、正面から見たものをそれぞれ上面図、側面図として表示している。
Cテクスチャ機能がある。
|
(2)Community Place Conductor
ソニーの提供するインターネット上の仮想世界を構築するためのソフトウェアである。このソフトウェアの特徴を以下に示す。
@VRML2.0対応である。
Aボタンやドラッグ&ドロップで3次元図形の作成ができる。
Bマウス操作によるビジュアルな編集ができる。
Cノード属性の数値入力ができる。
D動画や音声などの機能がある。
Eテクスチャ機能がある。
FJavaプログラムを記述することで物体に動きを付けることができる。
|
(3)Cosmo Player 2.0
Silicon Graphics,Inc(SGI)が提供するブラウザである。
@NetscapeなどのWWWブラウザの中に3次元図形を表示することができる。
AVRML2.0に準拠している。
BテクスチャとしてGIF、JPEG、AnimatedGIFをサポートしている。
C動画、音声をサポートしている。
4.1 人文棟の内部情報の作成
3次元世界の作成にはPC98(Windows95対応)を使用した。
昨年の研究で人文棟の内部情報(情報処理演習室、秘書実務演習室、2階の教室)が作成された。作成にはウォークスルー・プロが用いられた。ウォークスルー・プロは3次元図形を図形を作成するためのもので、VRMLのためのモデリングツールではない。したがって、VRML1.0に変換することができるバータスVR2.0Jを使用した。VRML1.0からVRML2.0に変換するとオブジェクトがポリゴンで表示されデータ量が増える。そのため、机のように複数あるオブジェクトは1つだけ変換し、その後、ISB上でコピーすることでデータ量を減らした(表1参照)。
昨年の研究で生じた問題点を以下に示す。
(1)動作がない。
(2)音がない。
上記の2つの問題点を、以下のように改善した。
(1)に対しては、部屋にドアやブラインドをつけた。
(2)に対しては、ドアをクリックするとノックする音が聞こえ、部屋にはいると各部屋の特性を示す音が聞こえるよう
にした。
(3)さらに、臨場感を強化するためにするために、実物の写真をテクスチャとして使用した。
|
|
|
|
ウォークスループロ |
|
|
|
VRML2.0に変換 |
|
|
|
今年作成(VRML2.0) |
|
|
|
5.1 作 成
ドアはCommunity Placeで用意されているのサンプルをもとに作成した。
@情報処理演習室と2階の教室は自動ドアを使用した(図3,図4参照)。
A秘書実務演習室は引き戸を使用した(図5,図6参照)。
Bテクスチャにはデジタルカメラを使い、画像を取り込んでテクスチャにして貼り付けた。
C音はネットワーク上にあった音を使った。情報処理演習室のキーボードの音はGoldweveを使い、実際の音を録音した。
|
|
|
|
|
|
|
|
6.1比較実験
(1)目 的
昨年作成された人文棟の内部情報とそれに動作と音とテクスチャを付加して作成した今年の内部情報との臨場感の感じ方の違いと現実感の要因を探る。
(2)方 法
@被験者:本学コミュニケーション学科1年生10人を対象にした。
A計算機環境:パソコン(PC-98)を使用した。
B実験手順:昨年度と今年の人文棟の内部情報をウォークスルーしてもらい、その後、アンケート調査を行った(アンケート結果は付録に示す)。
(3)実験結果
壁や床のテクスチャ表現により、ほとんどの人が臨場感をより感じていた。しかし、臨場感を感じる要因としては動作や音よりも効果が低かった。動作や音声は人間の日常生活の中で認知する頻度が高く、壁や床は認知度が低いと考えられる。また、天井のテクスチャが壁や床のテクスチャよりも臨場感を感じる要因として低かったのもそのためだと考える。
臨場感を感じるその他の要因として視点と光の具合がある。光の効果として3次元図形に陰影を付けることにより立体感を強める効果がある。また、部屋が暗いと違和感を感じ臨場感が低くなるということが分かった。
6.2 利用評価実験
(1)目 的
本研究で作成した人文棟の内部情報の利用評価と現実感の要因を探る。
(2)方 法
@被験者:本学の1年生および2年生15人を対象にした。
A計算機環境:パソコン(PC-98)を利用した。
B実験手順:ネットワークを介している本学キャンパスをウォークスルーしてもらい、その後、アンケート調査を行った(アンケート結果は付録に示す)。
(3)実験結果
臨場感を感じたものとしてノックの音が電話やパソコンの音よりも割合が高かったのはクリックしたと同時に音が出たからであると考える。迫力を感じたものとして視点が一番であった。物体に近づくとその物体がだんだん大きくなっているところが迫力を感じる要因になっていた。
今回の実験で新たに、利用者が送った反応が返ってくることが臨場感を感じる要因であるということが分かった。
ドアや電話の音など動作や音声が臨場感を感じる要因として一番有効であった。また、テクスチャは動作や音声よりも低かった。これは、動作や音声が、現実世界で最も認知度が高く、壁や床、天井などは認知度が低いためであると考える。
本研究では、2通りの音声を使用した。部屋に入ると音が流れ続けているものと、画面上のドアをクリックすると「コン」という音がするものである。どちらも臨場感を感じる要因としては高かったが、後者の方が利用者が送った反応が返ってくるので臨場感をより感じていた。
本研究では、ドア、ブラインド、音声、テクスチャを付加したが、他にも現在のVRML2.0で、より現実世界に近い世界を構築することが可能である。それらを以下に示す。
@動画を利用することによって、テレビを見ているような感覚を得ることができる。
A本研究での音声は部屋に入ると音が出るようになっており音を止めることができない。スイッチを付けると、より臨場感のある世界になる。
B自然の描写をする。木をだんだん大きくしたり、雲を動かしたり、鳥を飛んでいるかのように移動させると、より自律した仮想の世界を築くことができる。
Cエレベータや乗り物に乗っているかのような感覚になる。
次に、VRML2.0では、不可能であるが必要であるものを以下に示す。
@マルチユーザ機能への対応。この機能によりキャンパスを訪れているユーザ同士がお互いにコミュニケーションをとることができる。
A触覚、力覚、味覚、臭覚を備える。これらの感覚は、現在、研究段階で環境を整えることも難しい。しかし、さらに現実感を得るためには人間が持っているすべての感覚を備えるべきであろう。
本研究では、昨年度の人文棟の内部情報にドア、ブラインド、音声、壁、床、天井のテクスチャを付加することにより、臨場感を強化した。現実感を得るためには、人間が持っているすべての感覚を備えることが望ましい。しかし、仮想現実の世界を現実の世界に近づけるために現実の世界にあるものをすべて仮想の世界に表せばよいというものではない。人間の日常生活での認知頻度の高いものを忠実に再現することが重要であると考える。
本研究にあたりご援助くださいました情報処理準備室の中島順美実習助手、情報機器演習非常勤講師の渡辺律子先生、実験・アンケートにご協力下さいました皆様に深く感謝致します。