자율주행차가 사고를 진짜 줄일 수 있을까?

감지된 언어가 없습니다.

입력 언어를 확인해 주세요.

●●:フォンラマイフォト/iStockフォト

自動運転車は本当に事故を減らすのか?多くの人が、自動運転車は人間の運転手よりも安全だと考えています。 この仮定は間違っているかもしれないし、危険かもしれない。pub.tosai.網を張る

PS:検索に入って、ご希望の内容が見つからなかった場合は、「タグ」または「検索」をしてみると、より多くの資料を見つけることができます。 自動運転車ベースの未来モビリティに関するより詳しいお問い合わせや講義は、[email protected]までご連絡ください。 Over the Vehicle !!! 参考資料

自動運転車は人のようには見えない。コンピュータビジョンシステム(Vision System)は、間違った分類をしやすく、人々が騙されない方法で騙すことができます。 たとえば、研究者たちは、速度制限標識の些細な変化により、機械学習システムは標識が 35 mphではなく 85 mphであると思わせる可能性があることを示しました。 同様に、一部の中国のハッカーはTeslaのAutopilotをだまして車線を変更しました。 どちらの場合も、これらの些細な変化が車をだましたが、人々をだますことはなく、悪意のある行為者は車やトラックを混乱させ、道路から離れたり、障害物に陥るようにする同様の方法を考案することもできます。 自動運転車が世の中をどのように認識するかの違いはハッカーをはるかに超えて懸念につながります。 たとえば、実際の走行では、多くのTesla所有者は、木の枝のような影がしばしば彼らの車によって実際の物として扱われると報告しました。 歩行者を死亡させたUberテスト車両の場合、この車の物体認識ソフトウェアが先に歩行者を未知の物に分類した後、車両に、最後に自転車に分類しました。 私はそれについてよく知りませんが、車が100%正確に歩行者を認識できないのなら、歩行者や運転者としての道の上にいない方がいいでしょう。 安全vs交通渋滞(Safety vs Traffic Jams)事故はただ一つの心配事に過ぎません。 2020年初頭、モスクワは自動運転車大会を開催しました。 開始直後、ある車両が信号機に停車しました。 人間のドライバーは、この例外状況について推理し、止まった車をそのまま運行することを決意しました。 しかし、自動運転車は 1 台もそうせず、3 時間渋滞が続きました。 私たちは自動運転車が衝突することを望んでいませんが、障害物に遭遇するたびに止まって交通を止めることも望んでいません。 道路安全保険研究院(Insurance Institute for Highway Safety, IIHS)が5000件の自動車事故を分析した結果、自動運転車が人よりゆっくり、慎重に走行しなければ、全体衝突事故の3分の1しか予防できないことが分かりました。 もしメーカーが車をもう少しゆっくり運転するようにプログラムすれば、その結果はどの時点でもより多くの車が道路に出ることになるでしょう。 これにより、すでに高すぎるレベルの混雑が私たちの道路の多くで増加するでしょう。 私たちは家庭ではなくテストが必要だ。 (We Need Testing Not Assumptions.)NHTSAは、安全の証拠なしに自動運転車を想定して道路を走れるようにする準備ができていると見ています。 そして、それはNHTSAだけではありません。 フロリダ州法令316.85は、自動運転車の運転を具体的に許可し、運転者が自動運転車(例えば、運転者が映画を見ることができる)で道路に注意を払う必要はないと明示しています。 また、ドライバーが車に乗らなくても自動運転ができるよう明示的に許可しています。 そして、メーカーが非自動運転自動車の安全要件を超える安全試験を通過しなければならないという要求事項はありません。 車、トラック、バス、またはタクシー会社が準備ができていると決定するたびに、彼らはドライバーのいない車をテストして販売することが自由です。 私はフロリダに家を持っています。 これは私を怖がらせます。 他の多くの州も、安全基準のない自動運転車の発売を推奨しています。 私はNHTSAがデータ原理主義の犠牲者となり、自動運転車が人間のドライバーより安全であるという不適切な仮定の下で運営されていると思います。 これは、不必要な事故や渋滞を引き起こす可能性があります。 代わりに、NHTSAは、これらの車両が実際に人間のドライバーよりも安全であることを証明する安全性テストを要求しなければなりません。 割り込み数学では、数の定義中には定数と変数があります。 この用語は、私たちの日常生活にもよく応用されます。 よくある問題が発生したとき、固定された問題を解決する方法と決まっていない問題を解決する方法は明らかに異なります。 このような理由から、人々は不確実な状況が多くの変数を減らし、定数を高めるための多様な努力をします。 自動運転技術の発展も、もしかしたらこのような姿で進んできたと言えます。 一般的な自動車走行のための90パーセントの状況は解決できそうですが、あとはその終わりがわからない状況ということもあります。 これがまさに自動運転車の限界だと言って、解決できないと規定する人もいます。 もしかしたら、この論争はAI技術が人の知覚能力に従わない限り永遠ではないかと思います。 自動運転に関するニュースがますます多くなり、近づくほどこの問題に対する意見はより多くなるでしょう。 結局、人をより安全に移動させてくれるという期待から始まった自動運転技術が結局安全ではないという理由で人々に受け入れられない状況が発生する可能性があるのです。 皮肉です。 しかし、明らかなことは、このような問題はすでに古くから話されており、人々はその解決策のために努力していると言えます。 国家レベルでは法律と規制を、学界では理論的基盤を、ガイドラインを提示する組織では標準を、企業ではより安定的で実質的な技術を通じてその障害物を下げるための努力をしています。 私たちが接する多様な組織で提示する数多くの意見は、このような可能性を示す過程だと言えます。 このような状況が進行している理由は、当然この問題が定数ではなく変数であり、変数を解決するための多様な解説過程が登場だと言えます。 まだみんな気をつけているのは確かです。 誰一人、確信はしていません。 もちろんTeslaのElon Muskは数年間ずっと確信に満ちていました。 そんなElonも最近一歩後退しました。 このような不確実性の変数を減らすために多く提示されているのはシナリオベースのテストです。 たとえまだAIが常識的な推論(Common sensing reasoning)が可能ではありませんが、そのための多様な学習と経験の過程のためにテストが必要だということには明確な共感があります。 私はいつも「自動運転はソフトウェアだ」と言います。 明らかなことは、安全のために定数の役割を果たすハードウェアに基づいて、より多様な状況の変数を解決するためにソフトウェアの役割はますます重要になっています。 単にコーディングを行うソフトウェアを超えて、自動運転を実現するために設計から実装までのソフトウェア生態系が構築されなければなりません。 これらの生態系は、単にいくつかの企業で構築するのではなく、社会全体のシステムの変化を求めています。

自動運転車に関するNHTSAウェブサイトセクションは、次のようないくつかの説得力のある統計から始まります。• 2018年のアメリカの自動車事故で36,560人の死亡·自動車事故の90%がドライバーのミスによる事故、さらにウェブサイトによると、非常制動(emergency braking)と歩行者感知(peedestrian detection)のような現在のドライバー補助技術はすでに命を救っているそうです。 そして、私はこれが事実だと全面的に信じています。 しかし、私がNHTSAと意見が異なること(part company)は、私たちが果敢に行動し(throw caution to the wind)、適切なテストなしに完全自動運転(つまり、Driverless)車両を私たちの距離と道路に許可しなければならないということです。 データ原理主義(Data Fundamentalism)AIが社会に及ぼす影響を研究するKate Crawford、MIT教授が作った用語であるデータ原理主義(Data Fundamentalism)として知られる心理現象があります。 データ原理主義は、コンピュータが真実を語っていると仮定する傾向を指します。 私がイェール大学博士課程の時、教授の一人が学生たちを連れてBelmont Parkに行って純宗競走(thoroughbred racing)を観覧させました。 最初のレースをする前に、彼は観覧席の前に立ってハンドキャップについて講義をしました。 もちろん、観客席にいるすべてのニューヨークの専門家は、お互いに目を丸くして腕を伸ばしました:この男はハンドキャップについて何を知っているのだろうか? しかし、教授が緑色と白色のコンピューター印刷用紙に書かれたノートを取り出した時(1979年のことです。) 専門家たちは笑いを止め、彼が何を言うべきかを聞くために詰めかけました。 要点は、人々はしばしばコンピュータが常に正しいと仮定するということです。 自動運転車の場合、致命的なエラーになる可能性があります。 コンピューターが常に正しいと勘違いする私たちの性向の他にも、自動運転車が事故を予防するという仮定に疑問を投げかけるだけの十分な理由があります。 例外状況(Edge Cases) 2009 年、Sully Sullenberger機長はカナダのガチョウの群れがエンジンを故障したときに飛行機を操縦しました。 飛行機は地上2900フィート上空にあり、Sullenbergerと彼の同僚パイロットは、飛行機が地上に衝突するまで起動する時間が数分しかありませんでした。 彼らはこの具体的なシナリオについて教育を受けていません。 彼らはいくつかの基本的なルールと常識を適用できるだけでした。 最善の行動方向を決定するために、彼らは乗客がさまざまな衝突代案の中で生き残る可能性、地上の人々を負傷させる可能性、救助車両を迅速に利用できる場所、そして他の多くの要素を考慮しました。 その後、彼らは英雄的にハドソン川に着陸し、155 人の乗客は全員生き残り、誰もけがをしませんでした。 パイロットは広範な訓練を受けますが、すべての可能な状況について彼らを訓練することは不可能です。 訓練と似ているが全く同じではない状況であるこれらの例外状況の場合、彼らは常識的な知識と推論能力を使用しなければなりません。 車の運転手にも同じです。 Florida州のClearwaterというある高校生は、ある女性が車が動いている間に発作を起こすことに気づきました。 この学生は女性の車の前に車を止め、何の怪我もなく軽いバンパー損傷を受けただけで、車を止めました。 私たちのほとんどは、運転中に予期せぬ現象を経験します: シカは道路に飛び込みます。 洪水は道を歩くことを困難にしたり不可能にしたりします。 木が倒れて道を塞いだりします。 自動車が事故現場や工事現場に接近することもあります。 岩が山道に落ちることもあります。 新しいアスファルトの一部には線がありません。 あなたはブラックアイスに気付いたり疑ったりします。 あなたが凍りついた丘を登ろうとする時、その車は後部が左右に滑ることもあります。 私たちは皆それぞれの話があります。 私たちは、運転教習所でこれらすべての可能性のある微々たる事例について学びません。 代わりに、私たちは行動と結果を予測するために常識的な推論(Common sensing reasoning)技術を使用します。 もし私たちが近所でアイスクリームトラックの音を聞くなら、私たちはトラックで走っている子供たちに気をつけなければならないことを知っています。 気温が32度以下に下がると道路に降水量があり、丘を下るとき、私たちは非常にゆっくり運転する必要があることを知っています。 私たちは、前の車が揺れるのを見ると、運転手が酔ったりメールを送ったりすることができることを知りながら、運転行動を変えます。 鹿が道を渡る場合、私たちは他の鹿を警戒します。 私たちの常識的な知識が、彼らが家族として旅行することを教えてくれるからです。 私たちは安全距離を維持し、後ろに「積載物注意(extra wide load)」表示があるトラックを見る時、格別に注意して通り過ぎる車両を扱わなければならないことを知っています。 ボールの 1 つが通りに飛び出してくるのを見ると、小さな子供がそれを追うために通りに飛び込むこともあるので、私たちは速度を落とします。 道路に大きな紙が見えたら、私たちはその上を運転できることは知っていますが、もし私たちが大きな欠片したタイヤが見えたら、私たちはそれを止めるか、回らなければならないことを知っています。 常識的な推論を車やコンピュータにする方法を誰も知りません。 自動運転車は、このような予期せぬ状況を処理する常識的な推論能力が不足しているため、メーカーは2つの選択しかありません。 彼らは珍しい現象を持つ人間の出会いに関するデータを収集しようと試みることができ、機械学習(Machine Learning,ML)を使用してそれぞれの現象を処理する方法を学ぶことができるシステムを構築することができます。 または、可能なすべてのシナリオを予測し、これらの現象の入力ビジョンシステムの識別により、各状況で車両に何をすべきかを知らせる古いプログラムを作成することもできます。 メーカーがすべての例外状況を予想するのは難しいですが、不可能ではないでしょう。 企業キャンパスでゆっくりと動くシャトルは可能かもしれませんが、自動運転消費者車では想像しにくいです。 自動車がこれらすべての例外を処理するために常識的な推論を実行できない場合、どのようにして自動車が人間と同じくらいうまく運転できるのでしょうか? このような原因でどのくらい多くの事故が起こるのでしょうか。

 

error: Content is protected !!