ニュース
ラスベガスでのロードセンスが勝ちます
自動車レーダーは、過去20年間で車両に最も重要な追加の1つとして説明されてきました。3D形式では、方位角(水平角)の距離と速度を測定し、レーダーは、高度なドライバー支援システム(ADA)のクルーズコントロールおよび自動緊急ブレーキシステムで使用されます。安全レベル3の車両が市場に参入すると、レーダーは4Dに進み、標高方向を測定して地面からのオブジェクトの高さを検出して、それがkerbstoneか歩行者かを判断しました。
「イメージングレーダーは、長距離で小さな障害物を区別するのに十分な解像度を持つ必要があります。たとえば、100mの道路上の人を際立たせます」「その人の身長が5〜6フィートであると仮定すると、人を道路から分離するには約1°の解像度が必要です。このシナリオでは、システムはブレーキを作動させ、車両を停止させるのに十分な時間があり、高速道路であっても衝突を避けます」と彼は言います。
NXP半導体は、ラスベガスのCESで28NM RF CMOSレーダーワンチップSOCファミリーの拡張を発表しました。SAF86XXは、オブジェクト、ポイントクラウド、または将来の分散アーキテクチャのストリーミングセンサーのスマートセンサーのオブジェクト、ポイントクラウド、またはレンジフィートレベルのデータを含むさまざまなセンサー出力をサポートしています。
それは、個々のセンサーではなくADAのソフトウェア定義の車両アーキテクチャをターゲットにしており、ハイブリッドパイロット運用、自動駐車場、都市パイロット運用などのSAEレベル2およびレベル3の高度な快適機能をサポートします。
NXPは、Automotive RadarソフトウェアのスタートアップZendarと協力して、分散型Aperture Radar(DAR)テクノロジーに基づいて自動車用途向けの高解像度レーダーシステムを開発しました。これにより、レーダーシステムの解像度が向上し、車両の複数のレーダーセンサーから情報を融合して単一の大きなアンテナを作成することにより、数千のアンテナチャネルの必要性が排除されます。結果は、Lidarのような性能で0.5°未満の高角度分解能が発生し、面積をマッピングします。従来のレーダーセンサーは2°から4°の間で動作します。
DARソリューションは、NXPのS32RレーダープロセッサプラットフォームとRFCMOS SAF8X SOCSに基づいています。熱の複雑さが低下した単純化された標準レーダーに加えて、DARフットプリントは従来のレーダーよりも小さくなっています。
レーダーターゲットシミュレーター
SAF86XXを検証するために、NXPはRahde&Schwarzとレーダーターゲットシミュレーターを使用して協力しました。
両社は、短距離オブジェクトシミュレーション、RFパフォーマンス、信号処理のためにR&S QAT100アンテナMMWフロントエンドを備えたR&S AREG800 Automotive Radar Echoジェネレーターを使用して、参照設計を検証するためにテストを実施しました。
レーダーセンサーリファレンス設計は、新しい自動車評価プログラムの安全要件とL2およびL3の快適機能のために、短期、中程度、長距離レーダーアプリケーションに使用できます。
テストシステムは、レーダーセンサーとレーダーエコー生成を特徴付け、オブジェクト距離はテスト中のレーダーのAirGap値までです。開発ラボ、ループハードウェア、ループ、検証、生産アプリケーションの要件など、自動車レーダーライフサイクル全体に適しています。Rohde&Schwarz氏によると、これはスケーラブルで、ADAの最も複雑なトラフィックシナリオをエミュレートできます。
センシングシステム
AWR2544 MMWaveレーダーセンサーチップを導入したため、より多くのMMWAVEレーダーセンサーテクノロジーがTIによって実証され、衛星レーダーアーキテクチャの最初のものとして主張しました。マルチコアウェアと想像力は、TiのTDA4VMプロセッサでGPUコンピューティートを実証し、約50 GFLOPSの追加コンピューティングを追加し、ADAに使用される共通のワークロードのパフォーマンスの改善を実証しました。


もう1つのコラボレーションは、Eyeris、Omnivision、Leopard Imagingの間でした。このトリオは、キャビン内のセンシングのための制作リファレンスデザインを開発しました。EyerisのMonocular 3D Sensing AIソフトウェアアルゴリズムは、OmnivisionのOX05BセンサーとOAX4600画像信号プロセッサを使用するLeopard Imagingの5MPバックサイド照明グローバルシャッターカメラモジュールに統合されています。
EyerisのMonocular 3D Sensing AIにより、RGB-IRセンサーを含む2Dイメージセンサーは、ドライバー監視システムや乗員監視システムデータを含む深度認識全体のキャビンセンシングを提供できます。OmnivisionのOX05B 5MP RGB-IRイメージセンサーとOAX4600 ISPプロセス単眼3DセンシングAIデータを処理します。
AIエンジン
自動車産業の1つの方向は、自律モデルの安全性とセキュリティ機能を提供するためのAIの統合です。メーカーは、自動運転車アプリケーションを統合して、競争力のある市場で車両を区別します。これらのアプリケーションはAIに大きく依存しているとABI Researchの調査ディレクターであるJames Hodgsonがアドバイスし、電力と効率的なAI計算を提供するコンピューティングプラットフォームを要求しています。
「毎年輸送される高度に自動化された車両の数は、2024年から2030年の間に41%のCAGRで成長するように設定されており、強力で効率的なAI計算を備えた異種SOCのサプライヤーの健全な成長機会を示しています」と彼は言います。
AMDは、自動車資格を取得した同社初の7NMデバイスであるVersal AI Edge XA Adaptive SoCを発売しました。これは、フォワードカメラ、キャビン内監視、LIDAR、4Dレーダー、サラウンドビュー、自動駐車場、自律運転システムのAIエンジンとして使用するように設計されています。SOCには、LIDAR、レーダー、カメラなどのエッジセンサー、および集中ドメインコントローラーなどのエッジセンサーで使用するデータに関するAI推論のAIエンジンが含まれています。AIエンジンは、分類と機能追跡が可能です。このシリーズの範囲は、20k-521k lutsと5tops-171topsの範囲です。
スケーラブルなSOCは、以前の基礎適応SOCと同じツールを使用して移植できます。最初のリリースは今年初めに予想され、2024年後半にリリースされる予定です。
AMDは、インフォテインメントコンソールからデジタルクラスターや乗客のディスプレイまで、デジタルコックピットで使用するRyzen Embedded V2000Aシリーズプロセッサを導入しました。X86自動資格のあるプロセッサファミリは、接続、エンターテイメント、職場での使用に対する車両内体験に対する消費者の期待に対する同社の対応です。プロセッサは、車両内のエンターテイメントにPCのような体験をもたらすと述べています。
この最新のRyzen Embeddedプロセッサは、7nmプロセステクノロジーに基づいて構築されており、Zen 2 CoreおよびRadeon Vega 7グラフィックを使用しています。デジタルコックピット表現または乗客スクリーン用のHDグラフィックに加えて、セキュリティ機能を提供し、ハイパーバイザーを介して自動車ソフトウェアを可能にします。自動車グレードのLinuxおよびAndroid Automotiveをサポートしています。
