テスラの「完全自動運転」を激しく批判するニューヨーク・タイムズ紙の全面広告

米国時間1月16日日曜日のNew York Times(ニューヨーク・タイムズ)紙に掲載された全面広告は、Tesla(テスラ)の「Full Self-Driving(フルセルフ ドライビング)」を「フォーチュン500企業が販売した史上最悪のソフトウェア」と評し「フォーチュン500企業の他の商品で、8分ごとに致命的誤作動をするソフトウェアを見つけた最初の人物に、問題のソフトウェアの価格と同じ1万ドル(約114万5000円)を提供すると募った。

この広告を出稿したThe Dawn Project(ザ・ドーン・プロジェクト)は、最近設立された団体で、軍隊的ハッカーの標的になりうる重要システムの安全でないソフトウェアを禁止することを目的にしている。この広告はTeslaのFull Self-Driving(FSD)を「致命的誤作動が1000分の1以下になるまで」公道から排除するキャンペーンの一環だ。

反対運動団体の創設者であるDan O’Dowd(ダン・オダウド)氏は、Green Hill Software(グリーンヒル・ソフトウェア)という埋込み型安全およびセキュリティシステム向けオペレーティングシステムとツールを開発する会社のCEOでもある。同社はCESで、BMWの製品、iX は同社のリアルタイムOSと安全性ソフトシェアを使用していると話し、同社の新しい無線配信型ソフトウェア製品とデータサービスを自動車電子システム向けに提供することも発表した。

The Dawn Projectのファウンダーによる競合的バイアスの可能性はさておき、Teslaオーナーが都市道路で利用できる先進ドライバー支援システムであるTeslaのFSDベータソフトウェアは、システムの不具合を示す一連のYouTube動画が急速に広まったことで、ここ数カ月間監視の目を向けられている。

NYT紙の広告が掲載されたのは、カリフォルニア州DMV(自動車管理局)がTeslaに対し、専門のセーフティーオペレーター(非常時対応ドライバー)ではなく、一般消費者による同社のテストプログラムが自動運転規則の対象外であるという同局の意見を「再検討する」と伝えた数日後のことだった。カリフォルニア州DMVは、州内における自動運転試験を規制しており、Wyamo(ウェイモ)やCruise(クルーズ)などのロボタクシーの運用にむけて開発、テストを行っている他の企業に対して、衝突事故あるいは「disengagements(自動運転の解除)」と呼ばれるシステム障害を報告することを義務づけている。Teslaはこれらの報告書を一度も提出したことがない。

その後TeslaのCEOであるElon Musk(イーロン・マスク)氏はTwitter(ツイッター)で曖昧な反応を見せ、TeslaのFSDは公開以来事故も負傷者も出していないと主張した。現在、米国幹線道路交通安全局(NHTSA)は、Tesla Model Yのオーナーによる、自車がFSDモード作動中に左折した際誤った車線を走り、その結果他の車に衝突されたという報告書を精査している

仮にそれがFSDにとって初めての事故だったとしても、Teslaの全車両に標準搭載されているADAS(先進運転支援システム)、Autopilot(オートパイロット)は、すでに10件前後の衝突事故に関わっている

関連記事:米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け

NYTの広告とともに、The Dawn Projectは、自身の主張のファクトチェック(事実検証)を公表し、21件計7時間のYouTube動画のデータを研究した独自のFSD安全分析を紹介している。

分析した動画は、ベータバージョン8(2020年12月公開)および10(2021年9月公開)のもので、著しくポジティブあるいはネガティブな動画は、偏りをは減らすために研究対象から排除している。それぞれの動画は、人間のドライバーが運転免許を所得するために合格する必要のあるカリフォルニア州DMV運転技能評価に基づいて採点された。カリフォルニア州のドライバーが運転試験に合格するためには、車線変更の際に方向指示器を使用する、あるいは他の車両との安全な車間距離を維持するなどの運転操作上の誤りが15回以下、衝突や赤信号無視などの致命的な過ちはゼロでなくてはならない。

同団体の調査によると、FSD v10は1時間以内に平均16回の操作誤り、8分ごとに致命的運転誤りを犯した。v8とv10の間の9カ月間に改善があったことを分析結果は示しているが、現在の改善ペースでは、人間ドライバーの事故頻度を達成するまでに、あと7.8年(AAAデータによる)から8.8年(交通局データによる)を要する。

Dawn Projectの広告には、割り引いて捉える大胆な主張がいくつかあり、それは真剣に受け止めるには統計的基準からよりはるかにサンプル数が少ないからだ。しかし、もしこの7時間のビデオ映像が、平均的FSD運転を代表しているとすれば、発見結果はTeslaのFSDソフトウェアの大規模な問題の兆候を示すものであり、果たしてTeslaはこのソフトウェアを規制されることなく公道でテストしてよいのか、というより大きな問題につながってくる。

「私たちは、家族を公道を走る数千台のTesla車の実験用ダミー人形にする申込みをしませんでした」。

国の規制当局は、Teslaおよび同社のAutopilotとFSDベータソフトウェアシステムに対して行動を起こし始めている。

2021年10月、NHTSAはTeslaに2通の書簡を送り、同社のFSDベータを早期利用するオーナーに対する秘密保持契約の使用、および標準Autopilotシステムで、本来リコール対象とすべき問題の解決に無線ソフトウェアアップデートを使用する決定に対して説明を要求した。また、Consumer Reports (コンシューマーレポート)は2021年夏に声明を発表し、FSDバージョン9ソフトウェアアップグレードは公道で使用するには十分安全ではなく、同氏が独自にソフトウェアをテストする予定であると語った。そして先週、同誌はテスト結果を公開し「Teslaのカメラベースのドライバー監視システムは、ドライバーを路上に注意を向けさせることに失敗している」ていることを指摘した。同誌は、それに対してFord(フォード)のBlueCruise(ブルークルーズ)はドライバーの視線がそれた際に警告を発行していると報告した。

関連記事:米道路交通安全局がテスラに対し、秘密保持契約と無線ソフトウェアアップデートについて説明を要求

それ以来、Teslaは同社v10ソフトウェアの数多くの異なるバージョンを公開した。まもなく10.9が登場するはずで「都市 / 幹線道路向け単一ソフトウェアスタック」および「数多くの構造上のアップグレード」をともなうバージョン11は2月に提供される予定だ。

最新バージョン10.8のレビューはさまざまで、ずっとスムーズになったというオンラインコメンターがいる一方、多くの人たちがこのシステムを使うこと自体に自信が持てないともいっている。RedditのTesla Motors subredditで最新FSDバージョンをレビューするスレッドでは、複数のオーナーがソフトウェアに対する苦情を書いていて「絶対に一般公開できる状態ではない」と書いた人さえいる。

別のコメント人は次のようにいう。「完全に誰もいない直線道路に右折するのに時間がかかりすぎる。その後左折する時には理由もなくためらい続けて走行レーンを妨害し、次の道に入ると突然加速したかと思うと、同じくらい急に減速して、それは制限速度45mph(約72.4km/h)の道路を25mph(約40.2 km/h)だと思って速度を考え直したからだった」。

このドライバーは、最終的に完全にシステムを切り離すしかなかった。なぜなら「信号があり全方向の見通しが良くてまったく交通のない」普通の交差点で行うべき左折をシステムが完全に無視したからだったと語った。

The Dawn Projectのキャンペーンは、FSDは「最悪の時に誤ったことをする可能性があります」というTeslaの警告を大きく取り上げた。

「最悪の時に誤ったことをするかもしれない安全最重要製品が市場に出回ることを許せる人などいるでしょうか」と同団体はいう。「それは欠陥の定義なのではありませんか?Full Self-Drivingはいますぐ私たちの路上から取り除かれるべきです」。

Teslaからも、The Dawn Projectからもコメントは得られていない。

画像クレジット:The Dawn Project

原文へ

(文:Rebecca Bellan、翻訳:Nob Takahashi / facebook


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA