テスラの「完全自動運転」を激しく批判するニューヨーク・タイムズ紙の全面広告
今回は「テスラの「完全自動運転」を激しく批判するニューヨーク・タイムズ紙の全面広告」についてご紹介します。
関連ワード (合格、自信、運転試験等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
米国時間1月16日日曜日のNew York Times(ニューヨーク・タイムズ)紙に掲載された全面広告は、Tesla(テスラ)の「Full Self-Driving(フルセルフ ドライビング)」を「フォーチュン500企業が販売した史上最悪のソフトウェア」と評し「フォーチュン500企業の他の商品で、8分ごとに致命的誤作動をするソフトウェアを見つけた最初の人物に、問題のソフトウェアの価格と同じ1万ドル(約114万5000円)を提供すると募った。
この広告を出稿したThe Dawn Project(ザ・ドーン・プロジェクト)は、最近設立された団体で、軍隊的ハッカーの標的になりうる重要システムの安全でないソフトウェアを禁止することを目的にしている。この広告はTeslaのFull Self-Driving(FSD)を「致命的誤作動が1000分の1以下になるまで」公道から排除するキャンペーンの一環だ。
反対運動団体の創設者であるDan O’Dowd(ダン・オダウド)氏は、Green Hill Software(グリーンヒル・ソフトウェア)という埋込み型安全およびセキュリティシステム向けオペレーティングシステムとツールを開発する会社のCEOでもある。同社はCESで、BMWの製品、iX は同社のリアルタイムOSと安全性ソフトシェアを使用していると話し、同社の新しい無線配信型ソフトウェア製品とデータサービスを自動車電子システム向けに提供することも発表した。
The Dawn Projectのファウンダーによる競合的バイアスの可能性はさておき、Teslaオーナーが都市道路で利用できる先進ドライバー支援システムであるTeslaのFSDベータソフトウェアは、システムの不具合を示す一連のYouTube動画が急速に広まったことで、ここ数カ月間監視の目を向けられている。
NYT紙の広告が掲載されたのは、カリフォルニア州DMV(自動車管理局)がTeslaに対し、専門のセーフティーオペレーター(非常時対応ドライバー)ではなく、一般消費者による同社のテストプログラムが自動運転規則の対象外であるという同局の意見を「再検討する」と伝えた数日後のことだった。カリフォルニア州DMVは、州内における自動運転試験を規制しており、Wyamo(ウェイモ)やCruise(クルーズ)などのロボタクシーの運用にむけて開発、テストを行っている他の企業に対して、衝突事故あるいは「disengagements(自動運転の解除)」と呼ばれるシステム障害を報告することを義務づけている。Teslaはこれらの報告書を一度も提出したことがない。
その後TeslaのCEOであるElon Musk(イーロン・マスク)氏はTwitter(ツイッター)で曖昧な反応を見せ、TeslaのFSDは公開以来事故も負傷者も出していないと主張した。現在、米国幹線道路交通安全局(NHTSA)は、Tesla Model Yのオーナーによる、自車がFSDモード作動中に左折した際誤った車線を走り、その結果他の車に衝突されたという報告書を精査している。
仮にそれがFSDにとって初めての事故だったとしても、Teslaの全車両に標準搭載されているADAS(先進運転支援システム)、Autopilot(オートパイロット)は、すでに10件前後の衝突事故に関わっている。
関連記事:米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け
NYTの広告とともに、The Dawn Projectは、自身の主張のファクトチェック(事実検証)を公表し、21件計7時間のYouTube動画のデータを研究した独自のFSD安全分析を紹介している。
分析した動画は、ベータバージョン8(2020年12月公開)および10(2021年9月公開)のもので、著しくポジティブあるいはネガティブな動画は、偏りをは減らすために研究対象から排除している。それぞれの動画は、人間のドライバーが運転免許を所得するために合格する必要のあるカリフォルニア州DMV運転技能評価に基づいて採点された。カリフォルニア州のドライバーが運転試験に合格するためには、車線変更の際に方向指示器を使用する、あるいは他の車両との安全な車間距離を維持するなどの運転操作上の誤りが15回以下、衝突や赤信号無視などの致命的な過ちはゼロでなくてはならない。
同団体の調査によると、FSD v10は1時間以内に平均16回の操作誤り、8分ごとに致命的運転誤りを犯した。v8とv10の間の9カ月間に改善があったことを分析結果は示しているが、現在の改善ペースでは、人間ドライバーの事故頻度を達成するまでに、あと7.8年(AAAデータによる)から8.8年(交通局データによる)を要する。
Dawn Projectの広告には、割り引いて捉える大胆な主張がいくつかあり、それは真剣に受け止めるには統計的基準からよりはるかにサンプル数が少ないからだ。しかし、もしこの7時間のビデオ映像が、平均的FSD運転を代表しているとすれば、発見結果はTeslaのFSDソフトウェアの大規模な問題の兆候を示すものであり、果たしてTeslaはこのソフトウェアを規制されることなく公道でテストしてよいのか、というより大きな問題につながってくる。
「私たちは、家族を公道を走る数千台のTesla車の実験用ダミー人形にする申込みをしませんでした」。
国の規制当局は、Teslaおよび同社のAutopilotとFSDベータソフトウェアシステムに対して行動を起こし始めている。
2021年10月、NHTSAはTeslaに2通の書簡を送り、同社のFSDベータを早期利用するオーナーに対する秘密保持契約の使用、および標準Autopilotシステムで、本来リコール対象とすべき問題の解決に無線ソフトウェアアップデートを使用する決定に対して説明を要求した。また、Consumer Reports (コンシューマーレポート)は2021年夏に声明を発表し、FSDバージョン9ソフトウェアアップグレードは公道で使用するには十分安全ではなく、同氏が独自にソフトウェアをテストする予定であると語った。そして先週、同誌はテスト結果を公開し「Teslaのカメラベースのドライバー監視システムは、ドライバーを路上に注意を向けさせることに失敗している」ていることを指摘した。同誌は、それに対してFord(フォード)のBlueCruise(ブルークルーズ)はドライバーの視線がそれた際に警告を発行していると報告した。
関連記事:米道路交通安全局がテスラに対し、秘密保持契約と無線ソフトウェアアップデートについて説明を要求
それ以来、Teslaは同社v10ソフトウェアの数多くの異なるバージョンを公開した。まもなく10.9が登場するはずで「都市 / 幹線道路向け単一ソフトウェアスタック」および「数多くの構造上のアップグレード」をともなうバージョン11は2月に提供される予定だ。
最新バージョン10.8のレビューはさまざまで、ずっとスムーズになったというオンラインコメンターがいる一方、多くの人たちがこのシステムを使うこと自体に自信が持てないともいっている。RedditのTesla Motors subredditで最新FSDバージョンをレビューするスレッドでは、複数のオーナーがソフトウェアに対する苦情を書いていて「絶対に一般公開できる状態ではない」と書いた人さえいる。
別のコメント人は次のようにいう。「完全に誰もいない直線道路に右折するのに時間がかかりすぎる。その後左折する時には理由もなくためらい続けて走行レーンを妨害し、次の道に入ると突然加速したかと思うと、同じくらい急に減速して、それは制限速度45mph(約72.4km/h)の道路を25mph(約40.2 km/h)だと思って速度を考え直したからだった」。
このドライバーは、最終的に完全にシステムを切り離すしかなかった。なぜなら「信号があり全方向の見通しが良くてまったく交通のない」普通の交差点で行うべき左折をシステムが完全に無視したからだったと語った。
The Dawn Projectのキャンペーンは、FSDは「最悪の時に誤ったことをする可能性があります」というTeslaの警告を大きく取り上げた。
「最悪の時に誤ったことをするかもしれない安全最重要製品が市場に出回ることを許せる人などいるでしょうか」と同団体はいう。「それは欠陥の定義なのではありませんか?Full Self-Drivingはいますぐ私たちの路上から取り除かれるべきです」。
Teslaからも、The Dawn Projectからもコメントは得られていない。
画像クレジット:The Dawn Project
【原文】
A full page advertisement in Sunday’s New York Times took aim at Tesla’s “Full Self-Driving” software, calling it “the worst software ever sold by a Fortune 500 company” and offering $10,000, the same price as the software itself to the first person who could name “another commercial product from a Fortune 500 company that has a critical malfunction every 8 minutes.”
The ad was taken out by The Dawn Project, a recently founded organization aiming to ban unsafe software from safety critical systems that can be targeted by military-style hackers, as part of a campaign to remove Tesla Full Self-Driving (FSD) from public roads until it has “1,000 times fewer critical malfunctions.”
The founder of the advocacy group, Dan O’Dowd, is also the CEO of Green Hill Software, a company that builds operating systems and programming tools for embedded safety and security systems. At CES, the company said BMW’s iX vehicle is using its real-time OS and other safety software, and it also announced the availability of its new over-the-air software product and data services for automotive electronic systems.
Despite the potential competitive bias of The Dawn Project’s founder, Tesla’s FSD beta software, an advanced driver assistance system that Tesla owners can access to handle some driving function on city streets, has come under scrutiny in recent months after a series of YouTube videos that showed flaws in the system went viral.
The NYT ad comes just days after the California Department of Motor Vehicles told Tesla it would be “revisiting” its opinion that the company’s test program, which uses consumers and not professional safety operators, doesn’t fall under the department’s autonomous vehicle regulations. The California DMV regulates autonomous driving testing in the state and requires other companies like Waymo and Cruise that are developing, testing and planning to deploy robotaxis to report crashes and system failures called “disengagements. Tesla has never issued those reports.
Tesla CEO Elon Musk has since vaguely responded on Twitter, claiming Tesla’s FSD has not resulted in accident or injury since its launch. The U.S. National Highway Traffic Safety Administration (NHTSA) is investigating a report from the owner of a Tesla Model Y, who reported his vehicle went into the wrong lane while making a left turn in FSD mode, resulting in the vehicle being struck by another driver.
Even if that was the first FSD crash, Tesla’s Autopilot, the automaker’s ADAS that comes standard on vehicles, has been involved in around a dozen crashes.
Alongside the NYT ad, The Dawn Project published a fact check of its claims, referring to its own FSD safety analysis that studied data from 21 YouTube videos totaling seven hours of drive time.
The videos analyzed included beta versions 8 (released December 2020) and 10 (released September 2021), and the study avoided videos with significantly positive or negative titles to reduce bias. Each video was graded according to the California DMV’s Driver Performance Evaluation, which is what human drivers must pass in order to gain a driver’s license. To pass a driver’s test, drivers in California must have 15 or fewer scoring maneuver errors, like failing to use turn signals when changing lanes or maintaining a safe distance from other moving vehicles, and zero critical driving errors, like crashing or running a red light.
The study found that FSD v10 committed 16 scoring maneuver errors on average in under an hour and a critical driving error about every 8 minutes. There as an improvement in errors over the nine months between v8 and v10, the analysis found, but at the current rate of improvement, “it will take another 7.8 years (per AAA data) to 8.8 years (per Bureau of Transportation data) to achieve the accident rate of a human driver.”
The Dawn Project’s ad makes some bold claims that should be taken with a grain of salt, particularly because the sample size is far too small to be taken seriously from a statistical standpoint. If, however, the seven hours of footage is indeed representative of an average FSD drive, the findings could be indicative of a larger problem with Tesla’s FSD software and speak to the broader question of whether Tesla should be allowed to test this software on public roads with no regulation.
“We did not sign up for our families to be crash test dummies for thousands of Tesla cars being driven on the public roads…” the ad reads.
Federal regulators have started to take some action against Tesla and its Autopilot and FSD beta software systems.
In October, NHTSA sent two letters to the automaker targeting the its use of non-disclosure agreements for owners who gain early access to FSD beta, as well as the company’s decision to use over-the-air software updates to fix an issue in the standard Autopilot system that should have been a recall. In addition, Consumer Reports issued a statement over the summer saying the FSD version 9 software upgrade didn’t appear to be safe enough for public roads and that it would independently test the software. Last week, the organization published its test results, which revealed that “Tesla’s camera-based driver monitoring system fails to keep a driver’s attention on the road.” CR found that Ford’s BlueCruise, on the other hand, issues alerts when the driver’s eyes are diverted.
Since then, Tesla has rolled out many different versions of its v10 software – 10.9 should be here any day now, and version 11 with “single city/highway software stack” and “many other architectural upgrades” coming out in February, according to CEO Elon Musk.
Reviews of the latest version 10.8 are skewed, with some online commenters saying it’s much smoother, and many others stating that they don’t feel confident in using the tech at all. A thread reviewing the newest FSD version on the Tesla Motors subreddit page shows owners sharing complaints about the software, with one even writing, “Definitely not ready for the general public yet…”
Another commenter said it took too long for the car to turn right onto “an entirely empty, straight road…Then it had to turn left and kept hesitating for no reason, blocking the oncoming lane, to then suddenly accelerate once it had made it onto the next street, followed by a just-as-sudden deceleration because it changed its mind about the speed and now thought a 45 mph road was 25 mph.”
The driver said it eventually had to disengage entirely because the system completely ignored an upcoming left turn, one that was to occur at a standard intersection “with lights and clear visibility in all directions and no other traffic.”
The Dawn Project’s campaign highlights a warning from Tesla that its FSD “may do the wrong thing at the worst time.”
“How can anyone tolerate a safety-critical product on the market which may do the wrong thing at the worst time,” said the advocacy group. “Isn’t that the definition of defective? Full Self-Driving must be removed from our roads immediately.”
Neither Tesla nor The Dawn Project could be reached for comment.
(文:Rebecca Bellan、翻訳:Nob Takahashi / facebook )