コンテキストとは、「前後の事情」や「背景」を意味する言葉です。
『コンテキストの時代―ウェアラブルがもたらす次の10年』では、コンピュータが利用者の事情や背景を知り、利用者が必要とするサービスを的確に提供する時代になると予想しています。
コンピュータが利用者の事情や背景を知ることができるようになるのは、次の5つの技術のためです。
- モバイル
- ソーシャルメディア
- ビッグデータ
- センサー
- 位置情報
誰もが、スマートフォンのようなモバイル端末を持ち歩くようになり、ソーシャルメディアで自分の行動や好みを発信します。位置情報により、いつどこにいたのかもわかります。
さらに、各種センサーにより、人の動き、脈拍や体温などの情報もわかります。
これらの大量の情報をビッグデータとして分析し、役立てられるようになります。
コンピュータは、パーソナル・アシスタントとして、執事のように世話を焼いてくれるようになります。
余計なお世話と思わせない
このような世界が実現した時に大事なことは、人に大きなお世話だと思わせないことです。また、なぜそんなことまで知っているのかと驚かせてもいけません。
本書にも悪い例が出ています。
知人の女性のフライト情報を突然知らされます。グーグルがそれまでの履歴から2人が付き合っていると推測して、勝手に知らせてきたのでした。
このようなことがあれば、不快になったり、気味が悪くなったりして、パーソナル・アシスタントを使うことをやめてしまいます。
コンピュータがどのような情報を集めているのか、どのような理由で判断したのかなどが、利用者に分かるように示されなければなりません。
コンピュータの判断の根拠がわからなくては、人間にとって気味の悪いものになります。
私の考える2038年
本書には、2038年のコンテキスト社会が描写されています。そこで、私も2038年のコンテキスト社会を考えてみます。
まず、画面はコンタクトレンズに組み込まれます。各種センサーも一緒です。グーグルグラスのような眼鏡型ウェアラブルデバイスは過去の遺物となっています。
健康な人が身体の中に機械を埋め込むことは抵抗があります。義足や義手など、怪我などにより欠損した身体を修復するためには機械を使いますが、健康な身体に機械を埋め込むことはやりません。
力の不足を補うためのパワースーツは、小型になり衣服の中に隠れるほどになります。
文字の入力には、まだキーボードが使われています。脳波から抽出する技術も研究されますが、雑念が多く実用化できません。
コンピュータへの指示は、音声かキーボードで行われることになります。単純な指示はジェスチャーも使われます。
コンピュータからの情報は、コンタクトレンズに組み込まれた画像か音声により提供されます。
コンピュータが勝手に判断して先回りした手配をすることはありません。それでは、利用者の意図に反することになったり、驚かせたりすることになります。必ず、利用者の了承をとってから行います。利用者に各種のアドバイスを提供することはあります。
まとめ
コンピュータが利用者の事情や背景を元に判断できるようになることに異存はありません。しかし、それで勝手に判断し行動を起こすことは、利用者にとっては迷惑にもなりえます。
コンピュータのすることは、あくまでもアドバイスの範囲にとどまります。