DrivingSphere
自動運転の評価には、現実世界のセンサーデータや応答性の高いフィードバックループなど、実際の道路状況を忠実に再現するシミュレーション環境が必要です。しかし、既存のシミュレーションの多くは、公開データセットまたは合成されたフォトリアリスティックデータ上の固定ルートに沿ったウェイポイントを予測する必要があります。つまり、オープンループシミュレーションには通常、動的な意思決定を評価する能力がありません。最近のクローズドループシミュレーションの取り組みはフィードバック駆動型の環境を提供していますが、視覚センサー入力を処理したり、現実世界のデータとは異なる出力を生成したりすることはできません。これらの課題に対処するために、私たちは現実的なクローズドループシミュレーションフレームワークである DrivingSphere を提案します。その中核となるアイデアは、4D の世界表現を構築し、現実で制御可能な運転シナリオを生成することです。具体的には、私たちのフレームワークには、静的な背景と動的なオブジェクトを備えた占有形式で詳細な 4D 運転世界を構築する動的環境構成モジュールと、このデータを高忠実度のマルチビュービデオ出力に変換して空間的および時間的な一貫性を確保するビジュアルシーン合成モジュールが含まれています。 DrivingSphere は、動的で現実的なシミュレーション環境を提供することで、自動運転アルゴリズムの包括的なテストと検証を可能にし、最終的にはより信頼性の高い自動運転車の開発を促進します。ベンチマークは一般公開されます。