自動車事故でテスラのAutopilotにも責任があるとする判決
2019年にフロリダ州で起きた自動車事故に関する判決(2025年8月)を報告した以下の記事を紹介します。
裁判となった自動車事故は一般道に路駐している自動車にテスラ製の自動車が衝突し、路駐している自動車が回転して自動車の外にいた人を死亡させたそうです。運転者もAutopilotも路駐している自動車を避けれなかったそうです。運転者が安全に関する注意を怠ったため起きた事故と言えます。事故の状況に興味のある方は元記事や別のソースで詳細を確認してください。
今回の判決では、損害賠償の2/3を運転者に、1/3をテスラに指示しています。その理由がAutopilot以外の一般のソフトウェアやシステムの品質と広い意味で関連すると感じたので紹介します。
まず、Autopilotは高速道路向けに作られた運転支援システムであり、高速道路走行中でも運転の責任は運転者が持ちます。裁判では、まず、高速道路向けの機能であるAutopilotを一般道で積極的に使用制限しなかった点でテスラにも責任があるとしています。また、Autopilotという名称やテスラやCEOのマスク氏がそれまでに関して説明、紹介していた内容が運転者のAutopilotへの過信を招いたとしています。さらに他の事故や問題でNTSB(米国運輸安全委員会)の勧告をテスラが無視している点も指摘されています。
今回の判決は、積極的に機能を使えないようにしなかったことや説明のしかたによっては、作り手側が想定する自動運転のレベルや責任の所在では判断されない可能性があるという点で作り手側の想定する品質と実際の使われ方の違いに関して示唆が大きいと感じました。自動運転車以外でも深刻な問題が起きたときには同様の解釈の可能性を考えておく必要がありそうです。