2010年10月8日金曜日

リスク環境におけるドライバと運転支援システムの協調

[タイトル]
リスク環境におけるドライバと運転支援システムの協調

[著者]
伊藤 誠、稲垣 敏之

[掲載]
オペレーションズ・リサーチ : 経営の科学 Vol.51,No.10, 621-626, 2006

[アブストラクト]
本稿では、多様なリスク環境における人と機械との協調を論ずる。人間の判断をつねに優先する古典的な「人間中心の自動化」の考え方では十分な安全性の確保は難しいことが、これまでの事例や研究から明らかになってきている。これに対して、状況と底でのリスクに応じて、機械が安全確保のために自律的に判断・実行することを許す必要があることを指摘し、その湯構成を示した自動車の運転士縁に関する研究例を紹介する。また、このような動的特性を有する支援が、人に受容され、なおかつ過信や過度な依存をもたらさないようにするために克服すべき課題を述べる。

[キーワード]
人間機械協調, リスク, 自動車, 運転支援, 人間中心の自動化, シミュレーション

[要約・感想]
1.どうも気になるのは、「操作を任せる・意思決定を任せる」という部分の依存ばかりクローズアップされているところ。依存は「状況認識」そのものから起っているのではないだろうか。例えば、「危ないからブレーキを踏め」とか「危ないから前の車に注意しろ」というものは結局、命令であり、動作をするかしないかは原理的には人に選択の余地が与えられているとはいえ、結局、指示に従わなければアウトなのだから、指示には従うだろう。大切なのは、「状況を構成している、その人が検知しえない情報を提示する」といったことなのではないだろうか。

2.根本的には人には「依存・過信」というモードがあるわけではなく、「適応」と見るべき。そのシステムが存在する、ということを前提とした「状況への適応」が起る。人には「状況への対処に必要な注意リソース」を低減させていくメカニズムが備わっている。それが適応。

挙げられている4つの方策はすべて、結局、人の依存・過信を生むのではないか?行動への意思決定を人に委ねるとしても、状況認識は機械も行なっている。いずれ、人の適応のメカニズムから状況認識を機械に依存していく(自分で行なわなくなっていく)のではないだろうか。
それは「依存・過信」としてネガティブに捉えることも出来るが、本質的、ニュートラルに捉えるならば、「社会的認知」「分散認知」として、人がしなければならなかった状況認知を機械の側に分散させた・委譲したものであると捉えられる。人−機械システム全体で、状況モニタリングと運転操作の意思決定がなされている。

(アカン、上手くまとめられんが・・・汗)

「人と機械によるダブルチェック」というように二つのシステムが並列しているような印象があるが、結局本質的には二つのシステムが走っているのではなくて、一つのシステムが走っているだけと捉えるべきなのでは??各サブシステムのロバスト性・信頼性がどのようになるか、色々なサブシステムの構成(人のみ、人ー機械、機械のみ)の中でリスクがどのようになるのかを考えてみるというのも面白いのではないだろうか。というより、そういう観点が必要なのではないだろうか。


3.理想的な状況は、人と機械が2重の監視体制を気付いているということだろうが、これは、運転者と助手席同乗者のナビゲーションをなぞらえているのだろう。なんとなく、相手が人だと、たしかに2重のチェック体制ともいえなくない。ただ、助手席者と機械とで何か本質的な違いというものがあるのだろうか??本質的な違いが無いとすれば、助手席者が機械と同じナビゲーションを行ない続けてれば、いずれは人は助手席者にも依存するようになるのだろうか。。。これを実験で調べてみることは興味がある。
ちょっと既往研究を調査してみようかな。

0 件のコメント:

コメントを投稿