以前CHIにおける過去5年分の自動車UI研究を網羅的にサーベイした。
今回はUISTに関して同様にサーベイする。
発表された研究のアブスト(DeepLによる翻訳)をまとめた。
UIST2016
なし
UIST2017
Carpacio: Repurposing Capacitive Sensors to Distinguish Driver and Passenger Touches on In-Vehicle Screens
- https://ubicomplab.cs.washington.edu/publications/carpacio/
- 標準的な車両用インフォテインメントシステムには、多くの場合、ドライバーが携帯電話、ナビゲーション、オーディオ、および車両の設定を操作するためのタッチスクリーンが含まれている。ドライバーの安全のために、走行中はこれらのインターフェースが無効化されたり、簡素化されていることが多い。このような機能の低下は、ドライバーの注意力散漫を軽減するのに役立つが、同乗者にとってはインフォテイメントシステムの使い勝手を阻害することになる。現在のインフォテイメントシステムは、ユーザーの着座位置を認識していないため、適応することができません。我々は、ユーザが静電容量式スクリーンに触れたときに、タッチスクリーンとシート内の電極の間に生じる静電容量性カップリングを利用したシステム「Carpacio」を紹介する。この静電容量結合現象を利用して、カーインフォテインメントシステムは、誰が画面と対話しているかをインテリジェントに識別し、それに応じてユーザーインターフェースを調整することができます。また、同梱されているシート乗員検知センサーやシートヒーターコイルをシート電極として使用することができるため、自動車メーカーは容易にCarpacioを車両に組み込むことができます。8台の車と5台のモバイルデバイスで評価した結果、Carpacioは2600回以上のタッチを99.4%の精度で正確に検出しました。
Reinventing the Wheel: Transforming Steering Wheel Systems for Autonomous Vehicles
- https://dl.acm.org/doi/10.1145/3126594.3126655
- 本論文では,将来の部分自律・完全自律自動車のユーザーエクスペリエンスを向上させるために,2つの異なる変形ステアリングホイールシステムを紹介する.1つ目のシステムは、アクチュエータを用いて様々なコンポーネントを異なる位置に移動させることで、機械的に変形させることができるロボットステアリングホイールである。もう一つのシステムは、ホイールの縁に埋め込まれたLEDを使って視覚的に色を変えるLEDステアリングホイールです。両システムともに、ドライビングシミュレータとのインターフェースとして開発したマイコンを搭載しています。これら2つのシステムの主な機能は、様々な安全上の重要な場面でドライバーに緊急警報を提供することですが、私たちが提案するステアリングホイールシステムの設計空間には、インタラクティブなユーザーインターフェースとしての利用も含まれています。緊急警報の有効性を評価するために,参加者(N=56)を対象としたドライビングシミュレータ試験を実施しました.その結果、ロボットステアリングホイールを体験したドライバーは、LEDステアリングホイールを体験したドライバーよりも有意に高いパフォーマンスを示しました。本研究の結果から、機械的な動きを利用した警告は、純粋に視覚的な警告よりも効果的であることが示唆された。
UIST2018
Adasa: A Conversational In-Vehicle Digital Assistant for Advanced Driver Assistance Features
- https://dl.acm.org/doi/10.1145/3242587.3242593
- 先進運転支援システム(ADAS)は、ほとんどの最新の自動車に搭載されており、レーンキーピングシステムやアダプティブクルーズコントロールなどの機能を通じてドライバーを支援し、運転体験を向上させることを目的としている。しかし、最近の研究では、いくつかの理由からこれらの機能を利用している人は少ないことがわかっています。第一に、ADAS機能は最近まで一般的ではなかった。第二に、ほとんどのユーザーはこれらの機能に慣れておらず、何を期待していいのかわからない。最後に、これらの機能を操作するためのインターフェイスは直感的ではありません。ドライバーがADASの機能を理解するのを助けるために、我々は、ドライバーの質問やコマンドに自然言語で応答する会話型の車載デジタルアシスタントを提示します。このシステムでは、ドライバーは車内で制約のない自然言語を使って質問や命令をすることができ、高度な機械学習技術を使って訓練されたアシスタントは、車の信号へのアクセスと相まって、会話の文脈に基づいてリアルタイムで応答する。市販車で試作した我々のシステムの結果を紹介し、ドライバーのADASの理解と使いやすさを向上させるための有効性を実証する。
UIST2019
A New Approach to Studying Sleep in Autonomous Vehicles: Simulating the Waking Situation
- https://dl.acm.org/doi/abs/10.1145/3332167.3357098
- 本論文では、個人が睡眠から覚醒する際に経験する身体的・認知的要求をシミュレートするための新しい方法論を提示する。このシナリオをよりよく理解することは、自律走行車(AV)の研究にとって重要な意味を持ち、先行研究では、多くのドライバーが運転中に眠りたいと考えていることが示されている。本実験では、2つの方法で覚醒状態を再現しています。(1)被験者は3セッション(5分、8分、11分)の間、スリープシェード(身体的要求)をランダムに割り当てられた順番で着用し、その後、(2)10秒の間にぼやけた状態からクリアな状態へと変化するスクリーン(認知的要求)を見る。実験では、被験者の体験を実生活での覚醒時の身体的・認知的条件と比較した。実験設定は、睡眠状況を交互に変化させることの有効性と適切性が高く評価された。今後のAV研究のシナリオデザインとして活用され、他の分野でも採用可能である。