視覚に頼らないこと
読書と編集 千葉直樹です
ついこの間、twitterでつながっている方からこの本を紹介していただきました。
視覚に障害のあるアスリートの伴走者の視点での2篇のストーリーです。
僕は「同行援護従業者」という資格を持っています。それでいくらか視覚に障害がある方の支援を行ったことがあります。
同行援護従業者研修で印象的だったことは、「あなたが情報になるのだ」と言われたことでした。僕が支援をするときはそれを常に心に置いています。
視覚に障害がある方は、障害がない方にはない感覚を持っています。それは僕には想像するしかないのですが、やはり聴覚が鋭く、手足の触覚もかなり鋭いと思います。記憶力も発達している。
しかし、ちょっと想像を働かせるとわかることですが、街の中の変化のようなものはほとんどわかりません。
今はインターネットがあって、スマホで得られる情報が格段に増えていますから、そこから変化を知ることもできますが、その情報量は絶対的に少ないのです。
だから僕が支援するときは、とにかく自分が情報になりきって見えている状況を徹底的に音声にして伝えていきます。生来おしゃべりですから、これでもかというくらい話し続けます。
それでも視界にある全てのことを言葉にするのは難しい。短く、特徴を掴んで言葉にしていく。
「この人に伝えても意味がない」と思ってはいけない。難しいけれど、色の話もします。色そのものは伝えられないけれども、例えばコンビニに看板の色を伝えたりする。すると本人が単独で行動するときに周りにいる人に伝えられる情報が増えるのですね。
乗り物に乗っていて左右になにがあるとか更には建物の様子や歴史などについても知識があれば伝えます。
だから支援をすると自然に知識が増えていく。僕は支援をしているというよりも教わることのほうが多いのです。だからとても感謝しています。
そんなこともあって、視覚というものについて考えるようになりました。
今は主に視覚に頼りすぎていることについて考えています。
ITを使うと、もっと他の感覚を使うユーザインタフェースが作れるのではないかという観点です。そもそも視覚を使わないほうが便利なものもあるのではないか?ということですね。
今一番簡単に体験できるのは、イヤホンをして場所のナビゲーションをしてもらうことです。まだまだ位置の指定を視覚に頼っている部分が大きいので便利とは思えない部分もあるのですが、これを音声で正確に指示できるようになったらかなり楽になります。
聴覚を使ったナビゲーションは他のことをしていたり考えていたりしていても的確なポイントで進む方向を指示してくれるのであまりじゃまにならないのです。
たぶん世の中にはそういうケースがもっとあるでしょう。視覚に頼らないユーザインタフェースは人の行動を変える可能性がありますし、もっと別の能力を引き出す可能性がある。なにより機械と自然なコミュニケーションがとれるようになるはずです。
これは僕が独自に考えだしたわけではなくて、いろいろな人の発言に刺激されたものです。次はひとまず音が来る。
「ITを上手に使う勉強会」の各講座ではこんな話もしています。パソコンがほしいという人にはスマホでよくない?そして、スマホは遠からずなくなるかもよ?なんて調子。もちろんオンラインの講座でもお話します。
読書も視覚に頼らないということをやってみると、本を書くということの意味も少し変わってくるかもしれません。
今日は僕が日頃考えてることを書いてみました。