<<< back

エビデンスベーストアプローチによる図書館情報学研究の確立
第7回ワークショップ
「眼球運動の測定がもたらすエビデンス」

議事録

開会の辞 | 発表I(倉田) | 発表II(大森) | 発表III(三輪) | 質疑応答

::: 発表I(倉田敬子氏) :::

倉田発表者
 慶應義塾大学の倉田でございます。それでは早速、発表させていただきます。
 今回は、図書館情報学の中でも今まであまり使われてこなかった眼球運動測定というものを、図書館情報学で一体どういう形で応用していくことができるのかということを、実際に科研で購入していただいた機器を使った実験を通して、どちらかというとその方法論的なところを中心にお話しさせていただきたいと思っております。
 眼球運動測定自体に関しては、この後お話しいただく大森先生がご専門となさっている心理学のほうで、非常に長い研究の実績があるものですが、やはり図書館情報学で使うとなると、それはいろいろと違う点があると私自身も実際にやってみて思うところがありますので、その辺を含めてお話しできればと思います。(以下、パワーポイント使用
 まず眼球運動とは何なのかということから少しお話しさせていただきたいと思います。
 これはもうご存じの方には言わずもがなのことですが、心理学と言っていいのかどうかわかりませんけれども、少し根本のところからお話ししますと、眼球運動とは目を動かすという運動です。
 人間の体の中には人間が意識せずに動かせるものが数多くあるわけですが、目の動きというのは実はそうではなくて、意識的に動かせるものです。
 つまり、人間がみずからコントロールする行動であることは間違いがないわけで、私たちが普段行っている行動や動作というものとかなり違う部分はあるのですが、意識して動かせるという点では変わりがなく、ここが図書館情報学でも応用できるのではないかと考えている点です。
 つまり意識的に動かすということは、何かがそこにあるから、一般には興味がある対象があるからそこに動くはずです。
 逆に言えば、眼球運動を測定すれば、そこに興味があるということはつまりどういうことなのかが測れるのではないか。
 これはもちろんもう少し厳密にやっていくと、そう単純にはいかないのですが、大きな枠組みとしてはそういうふうに考えるということではないかと私は考えております。
 眼球運動に関して書かれた教科書と言っていいのでしょうか、『アクティブ・ビジョン』という本があります。
 この本は私には大変おもしろかったのですが、翻訳されておりまして、「眼は興味あるものをサンプリングするが、何に興味があるかは、観察者の思考プロセスや行為のプランに応じて、時々刻々変化するもの」であると述べてあります。
 この思考プロセスや行為のプランが図書館情報学にとっては非常に関心がある部分です。
 これまで心理学でさまざまに行われている実験自体を見ると、やはり図書館情報学でそのままは応用できないのではないかという実験がほとんどです。
 人間の生理や知覚であるとか、もっと根本にかかわるものが心理学では研究対象となってきた中で、眼球運動というのはそういうものに比べますと、ここにあるように思考プロセスとか行為のプランという、私どもが関心を持ち、対象としたいと思うものを割合と直接的にはかる可能性のある方法ではないかと考えています。
 つまり、実際の眼球の動きを見ることから思考プロセスや、どうしてそこでそういう行為が行われるのかという理由を推定していくことが可能と考えています。
 実は眼球運動というのはいわゆるスムーズな、ただ普通に滑らかに動く運動ではありません。
 常に停留と、急速な目の移動、これをサッカードといいますが、さっと動く動きの繰り返しです。
 とまってさっと動いて、とまってさっと動く、これを眼球運動と一般には言っています。
 非常に細かい単位になっていきますが、停留時間というのは通常50〜500msです。
 いろいろな対象を見させると、眼球というのはかなり長くとどまっている場合と、瞬間的には停留とは思えないものすごいスピードで見ていく場合とがあるわけです。
 サッカードの長さもいろいろな測り方があるのですが、概算という感じで皆さんにイメージをつかんでいただくという意味では、日本語で10.5ポイントから11ポイントぐらい(の大きさ)ではかって大体2文字分から5文字分ぐらいの長さを、ぱっと動くというのが平均と言われています。
 もう一つ基本として理解していただきたいのは、どこで見るかということも問題なわけです。
 目の中でも、視野として三つのレベルに分けたときに、当然のことながら基本的には中心で見ます。
 ただ、周辺の部分でも見ていると言われています。
 周辺で見ているものはすごく認識力、知覚が落ちるので、多分見方が中心とは違うと考えられていて、眼球運動をはかるときにはこの中心で見るところを基本と考えています。
 実際にどうやって見ていくかという処理プロセス等に関しては、いろいろなモデルがつくられております。
 眼球運動自体はいろいろな研究があって、非常に長い実績のある分野ですので、ものすごく長く研究されてきています。
 特に文章をどう読むかということは、眼球運動の研究の中でも大変中心的なテーマの一つになってきました。
 ただ、これまでの眼球運動の研究の歴史を見てきますと、本当にまずどうやって測るのかというのはすごく大変な話でした。
 最初は手術をしないと測れないとか、眼球運動の実験自体が本当に命がけという時代ももちろんありました。
 技術が次々と進むことによって、それが少しずつ簡単に測れるようになってきたわけです。
 それからもう一つは、心理学の方々にとって目の動きは正確に知りたいわけです。
 ですから通常、実験の対象となるのは1文字ということはあまりないですが、せいぜい一つの単語とか一つの文とか1行とか、基本的にはそういう単位での実験がすごく数多く繰り返されます。難しい文ほど長く停留したり、戻りも多くなるということがわかっているのですが、基本的に文章を読むときは行に沿って読むに決まっていると言うと語弊がありますけれども、そういうものです。
 画面に文字が出てきて一つの文が出されたときに、そこを無視して全然違うところを見る人は普通いません。
 普通の文章、例えば縦書きであろうが横書きであろうが小説を読みなさいと言われたら、その行に沿って読むのが普通です。
 そういう意味では、文章をどう読むかという眼球運動の特徴自体はかなり研究がし尽くされていると思います。
 行に沿って前向きに少しずつ読んでいく。
 ただ、そこで難しい単語が出てきたり、わからなかったりすると長くとまったり、それからもう一回読もうという戻りの運動が起きる。
 けれども、普通は基本的にはそう難しくなければそのまま割合とスムーズに読んでいくことができるということです。
 ただ、眼球運動レベルの知覚に関しての特徴は随分わかってきているし、多くの実験が似たような結果を出しているのですが、どうしてそういうふうに読むのかという、もう少し高次の人間の処理レベルの話になると、これはいろいろなモデルが提案されておりまして、今まさに研究中だと思います。
 もう一つは、画像をどう見るかということです。
 これは眼球運動の中でも文章のこういう研究が行われるのに比べると歴史はすごく短いと思います。
 絵画をどう見るかとか、それから変わったところではレントゲン写真をどう見るか、あとはテレビが出てきてテレビをどう見るのかというのが随分研究された時期があったようです。
 その後、多くの研究者たちが注目をしているのはウェブです。
 ウェブの画面を一体人間はどう見ていくのかということが、やはりいま大きな関心事になっていると思います。
 画像の場合より難しくなるのは、文章の場合は行に沿って文字は次々と進めて読んでいくというのはすごく当たり前のことに思えますが、絵はどこからどう見てもいいわけです。
 絵画を見るときに決まった見方が本当にあるのかというと、ちょっとそうは思えません。
 写真だったらどうかとか、そうなってくると今いろいろな研究がなされていますが、基本的にはもっと自由な動きになってしまうわけで、ここに一種の文章のようなある種のスキャンパターンというものが本当にあるのかは、まだいろいろな研究がなされ出したばかりと考えております。
 では、実際に眼球運動を測定する機器を簡単にご紹介したいと思います。
 今回、この科研で買わせていただいた本体の部分が「今回のプロジェクト購入機器」の写真です。
 これはVoXerというタイプです。
 眼球運動の測定装置にはいろいろなものがありまして、後で多分大森先生からもお話があると思いますが、これは簡易版と言うと語弊がありますが、すごく簡単に測れるようになった眼球運動の装置です。本体はこれだけですけれども、残りこれだけたくさんないと、測れないということになります。
 実際の測定分析用のパソコンがございまして、それ以外に刺激、つまり見てもらうものを提示するディスプレイがあって、これは本体につながっているディスプレイで、そのディスプレイをコントロールする用のパソコン。
 最低限これだけないと動かすことができないことになります。
 この「VoXer(測定機器本体)」の写真が本体を大きくしたものです。
 見るのは刺激のディスプレイを見てもらうのですが、そこからの光を反射する形ではかります。
 この機器の特徴です。
 次の「実験」の写真を実際に見ていただいたほうがいいと思いますが、右側に被験者に座ってもらいました。今回の実験はたまたまこういう形でやったというだけで、もちろんこうやらなくてはいけないわけではありません。
 基本的にはこういう形で座って、ただVoXerの向こう側にある画面を見てもらうだけです。
 ここでこの人は何も装着する必要がありません。画面は見続けてもらわないとだめなので、ここがすごく制約があるのですが、それ以外にはほとんど制約がないというのが、この新しくできた機械の利点です。
 ただし、この機械とつなげて調査する側の人間は、これだけのものを扱わないと実際に実験を進めることができません。
 測定用のパソコンを動かし、あとちょっと隠れているのですが、ビデオで実際に録画しなくてはいけないので、ビデオで録画し、刺激の提示用のパソコンも確認しながら、ディスプレイを眺めてコントロールしています。
 いま申し上げましたように、非接触型で実験参加者への負担が少ないという点、それから簡易型というのは少し言い過ぎかもしれませんが、私もこの前に何種類かの眼球運動の測定で、同じメーカーのほかのものを使わせていただきましたが、それと比べてもかなり実験の手順や手続は楽にできます。
 その意味では、あと基本的な分析ソフトも大分進んできたというか、既に組み込まれている分析ソフトだけを使っても何とかなるというぐらいになってきているという意味では、随分楽になったと思っています。
 「キャリブレーション」は、眼球運動を測るに当たって一番最初に設定しないといけないものになります。
 最初に、顔自体を登録する必要があります。顔を登録して、さらに眼球のところを登録することになります。
 これを一度登録すると、ある程度機械が自動的に眼球の動きを追っていってくれることになるので、その意味では随分楽にデータをとることができます。
 ここで画像データがどういうふうにとれるかをお見せします。
 実際に画面を見てもらってとったデータの動きです。今、別のところから動かしていますように、これ自体がビデオとして記録されることになります。
 この下の秒数とかこういう値を使って、実際に何をどこでどう見ていて、この被験者の何秒後のデータであるかということがわかるようになっています。
 このデータがビデオに録画されて、今の下のところにあるさまざまな時間等で、今ちかちかと動きました実際の画面のピクセルでどの位置にあるかというデータが基本になるわけです。
 そのデータ自体は当然コンピューターのほうに送られて、そこで蓄積されていくことになります。
 そういう意味では、眼球運動の場合にはどこをいつ見て、そこに何秒とどまっているかが基本データと考えていただいていいのではないかと思います。
 もちろんほかに瞳孔であるとか瞬目とかいろいろはかることはできますが、この辺になってくると少なくとも私の勉強不足ということもありますが、これをどういうふうに生かすかというのはよくわからない点がやはりあります。
 どこを見ているかというのはすごく単純な話なので分析に使っていくことができるのですが、瞳孔が開いたから何なんだというのは、やはり生理的な問題と実際の思考プロセスとの間の関係がまだわからない点が非常に多いので、その辺に関してはもう少しきちんと実験等を積み重ねていかないとはっきりしたことはわかりません。
 瞳孔反応というのは、瞳孔が大きく開いたり小さくなったりということで、これは疲れたりということでも反応してしまいますし、もちろん何か突発的なことがあってもそういう反応もしますし、わからないわけです。
 そことの直接的な因果関係がそんなにはっきりしていない。
 瞬目はまばたきですので、これももちろん疲れればまばたきが多くなることはありますが、画面のディスプレイのせいなのか、それともその方自身の目の特性とかでも瞬目というのは変わってきてしまうので、厳密な点を言い出すと、この辺をどういうふうにデータに組み込んでいくのかはいろいろと問題があると思います。
 先ほどのカチャカチャと動いていたのがあると思いますが、それを実際に分析していく際に一定の分析ツールを使うことができます。
 先ほどのビデオには、記録した際の画面が一緒にあったわけですが、分析ツールで画面をキャプチャーすることによって重ね合わせることができます。重ね合わせることによって、どこに停留したかがわかります。
 ただし、いま番号が振られていますが、この番号が自動的に付与されればすごいソフトですけれども、それはさすがに無理でして、これは人間が実際のデータのピクセルの値を目で見て、これはここというふうに点を打ったものを今、画面で出しています。
 ですから、分析ツールにかけただけで出てくるときには、実際のこの画面の後ろも何もない、ブルーというかグレーの状態で、ただこの点が出てきて線でつながれているということです。
 そのデータは簡単にすぐ出てくるのですが、後ろに画面を入れてどこ(どの要素)を見ているかということはわかりません。
 さらにそれが何番目の点でどういうふうな順番で見ているのかということは人間が手でやらない限り、こういう分析はできないということになります。
 ここまでできればあとは停留回数、どこに何回とどまり、停留時間や移動方向、移動速度は自動的にもちろん出てきます。
 ではそれを実際にどういう形で研究に結びつけていくかということで、今回、私どもはOPACの検索に眼球運動を使いました。
 OPACを検索する際に、画面のどこを見ることによって具体的な判断、つまりこの本が適切であると判断しているのか。実際に適切だと判断してもらわないと困るんですけれども。
 あるところはあまりよく見ないでさっと行く、あるところではとどまるということです。それが実際の検索の結果とどういう関係があり、どういう形で正しい本を選んでいっているのか。そのプロセスを見ていきたいということになります。
 ただ、これを眼球運動という観点から扱うに当たっては、かなり前提、制約が出てきます。
 もちろん私どもの関心は、情報検索においてOPACがどう使われてOPAC検索とは一体何なのか、その特徴を明らかにしたいわけです。
 ただ、その際に、眼球運動で明らかにしようとする際に、検索プロセス全体を扱うことはかなりの困難です。
 今後できないということではありませんが、差し当たってすぐやるにはなかなか困難なテーマだろうと思います。
 その制約として一番かかってくるのは何かというと、画面を見続けてもらわないといけないという点です。
 画面を見続けてくれないとデータをとることができないわけです。
 これはすごく大きな制約です。
 人間はやはり画面を見ているようでいて、それをずっと見続けるということはできません。特に検索の場合、言葉を入れる際には当然目を離してしまいますし、キーボードを見るということも出てきますし、横を見ることも、メモをとることも出てくるわけです。
 それを眼球運動で全部はかるということは不可能ではありませんが、ものすごくうまくやって、しかもいろいろなことの制約をクリアしていかなくてはいけない。
 さらに言うと、そんなに長く眼球運動をはかってどうするんだというところもないわけではありません。
 やはりかなり負担を強いることになります。
 今回のVoXerのようなものの場合には負担は少ないですが、逆に言うとその場合には画面を見続けてもらわないとだめです。
 画面から目を離すとそこでデータをもう一度とり直す形になってしまうので、もう一度またはかり直すところからやらないといけないということで、その意味では画面を見続けないととれない。
 帽子型というものがありまして、これですと画面から多少目を離していろいろ見ることは可能ですが、分析がものすごく大変なのと、今度は帽子をかぶって眼球運動をはかっていますので、そんなに何十分もその状態でいるというのはかなり負担になってきます。
 その意味で、検索プロセス、OPACで何かを検索してもらう全体を眼球運動で全部はかるということはなかなか難しいということになります。
 なので今回は、あくまでも特定のOPACの検索をした結果の画面を見てもらって、そこから適切な本を探してもらうという、そこだけを切り出して、そのときにどの画面をどういうふうに見て、その見方にパターンはあるのか、見た画面の見方と実際の判断、この本を適切だと判断した結果の間には何か関係があるのかという、この二つに絞って調査・研究を進めてまいりました。
 これの結果に関しては、昨年度の第55回の日本図書館情報学会の研究大会と2007年度の三田図書館・情報学会で発表済みですので、詳細に関してはそちらを参照していただければと思います。
 ここでは実際の方法論的な点と分析の点だけ少しお話ししたいと思います。
 今のように特定の画面をどう見ているかということを問題としましたので、基本的に分析の観点は、先ほどの停留の位置の問題です。
 つまり、どこを見ているかということだけに分析を集中させました。
 ただ、先ほど申し上げましたように基本ソフトでは9分割とか16分割とか、もう決まった形でしか画面を分割してくれません。
 ですから単なるウェブのときに一番左上を見ているとか、一番右下を見ているということはすぐ出るのですが、それでは意味がありません。
 OPACのときに、やはりOPACの著者名のところを見ているのか、タイトルを見ているのか、それとも関係ないところを見ているのかが知りたいのですから、意味あるブロックに分割しないといけないわけです。
 これはこちら側で、ブロックに分割して停留点の軌跡を分析しました。
 意味のあるブロックに分割してどこを見ているかということと、もう一つ問題にしたのは見る順序です。
 どういう順序で見ていて、それに規則性があるのかということ。この二つを分析しました。
 「視線軌跡の分析(独自ブロック)」が、このブロック分割をさらに画面に合成したものになります。
 この枠は研究者側でつくりまして、先ほどの画面の上にさらに重ねました。
 こうすることによって、停留点がどのブロックにあるかということがわかるようになります。
 ですので、そのことによってどのブロック、つまりタイトルなのか著者名なのかというところがわかってくることになります。
 実際にブロック別に停留回数・時間をはかったところ、タイトル・責任表示の部分のブロックにとどまったのが、回数でも時間でも圧倒的だったということです。
 平均だけから見ると、約半分はタイトル・責任表示を見ていたことになります。これはもちろん個人差があります。
 個々の実験参加者によってすごく差がありますけれども、ほぼ全員だったと思いますが、少なくとも一番見ているのはタイトル部分ということになります。
 どこのブロックを見ているかはわかったわけですが、実際にそれをパターンという形で分析できるかということで、どういうふうに見ていくかというのはいろいろ試行錯誤が必要です。
 今回はブロックにまとめてしまいまして、同じブロックのものはそれ以上分析しない、そのブロック間の移動パターンを2ブロック分、3ブロック分というふうに機械的に分けていく形で見てみました。
 そうしますと、やはり一定のパターンがあるということで、2ブロックで見るというのはこれだけですとあまりパターンということでは見にくいのですが、3ブロックのところが一番わかりやすいかと思います。
 例えば「T1+C+T1」というのは何を意味するかというと、これは実際に見ていただいたほうが早いですね。
 「視線軌跡パターン(ブロック数3)」ですが、1番目のタイトルがT1のブロックになります。その上のCというのは、この場合、検索語とかの一般的な説明の部分になります。
 先ほどの三つのブロックでの順序というのはT1を見て、上のCのブロックを見て、またT1に戻る。これが6回あったということになります。
 それからT2を見て、T3を見て、T4を見るという順番で見ているパターンも5回あった。T3、T4、T5という見方も5回あった。こういう分析をしていったわけです。
 これをいろいろなブロック数に分けて見ていったところ、一応顕著なものとしてはこの辺がよく見られたことがわかって、ここから一つのパターンとして言えるのはやはりタイトルを中心に見ているわけです。
 T1、T2、T3、T4というのが見方の中心になっていることが一つと、それから、これもリスト化されているのである意味で当たり前ですが、上から下へという方向で見ている。もちろんその中でこっち側に行ったりあっち側に行ったりということを繰り返し、人によっていろいろな見方をするのですが、その中心的なパターンとしてはタイトル中心という点と上から下へというパターンが、OPACの場合にはかなり顕著に見られることがわかりました。
 眼球運動としてのOPAC画面の見方としては、これはもうタイトルに停留するというのは当たり前と言ってしまうと少し言い過ぎですが、やはりOPACで何かを見て判断しようとするときには、ある意味では非常に情報量の多いタイトルを中心に見ていく。
 リストになっていますので、当然それの上から下へと見ていく。
 では、どうしてそのタイトルだけでいいのか。
 タイトルを最初に見るのはいいのですが、本来タイトルからほかの要素に行ってもいいはずです。
 所蔵地区であるとか、出版者のほうを見てくれてもいいはずですが、そういうふうに目は動かないで、タイトルをずらーっと見ていくというパターンがすごく多いわけです。
 どうしてそうなるのか。
 過去の経験としても、タイトルだけでOPACなんかはいいんだと思っているのかどうか。
 そうではなくて、やはりOPACの画面がそうつくられているから、それに影響されてそういうふうな引きずられた見方をしているのか。
 他からのいろいろなデータや調査でこの辺をもう少しはっきりさせられると、眼球運動によってOPAC検索のある種の特徴がわかってくるのではないかと期待しています。
 きれいな結果を出せるところまではまだ行っていないのですが、眼球運動としての特徴は少し見えてきたかと考えております。
 発表は以上です。

池内司会
 どうもありがとうございました。
 眼球運動の解説から図書館情報学でどのように生かしていくかというお話、さらに実際に倉田先生たちのグループで行っているOPAC検索の眼球運動に関する方法論を中心としたお話をいただきました。

<<< back