Turing Semiconductor/AI Day潜入レポ

Turing Semiconductor/AI Day潜入レポ

日本でテスラを追い抜いて完全自動運転を目指すTuring社の現在地を示す Turing Semiconductor/AI Dayが開催されたので潜入レポをお届けします。

View on X

イメージビデオからスタートしました。 イメージビデオ 山本 一成さん登壇です。いきなり、AIとカメラのみでハンドルかがないEVを作るとぶち上げました。手ブレすみません。 山本一成 ルールベースではうまくいかない。 ルールベース 似たようなシチュエーションでも大分違う操作が必要。 ルールベース 車が世界を理解する必要がある。これをルールベースでやるのは大変。世界を理解するAIが必要。 世界モデル マルチモーダルのHeronをリリースした。Heronは世界を大分理解している。 Heronの例 ルールベースではあり得ない状況に対応するのは難しい。Heronは予測できている。 予期せぬ事態 AIの歴史を少し。AlphaGoが何をしているか。画像から状態ベクトルというものを読み取る。 AlphaGo 状態ベクトルをニューラルネット化する。ゲームの場合、エミュレーターとなる。 エミュレーター 世界のエミュレーターを世界モデルという。世界モデルがあれば自動運転ができる。 世界のエミュレーター 自動運転世界のエミュレーターはカメラやカーナビ画像から予測する。 世界エミュレーター候補のNN 世界モデルを理解するAIで自動運転が可能となる。 世界モデルと常識をもつ生成AIの融合 来ている方でAIとかやっている人は力を貸して欲しい 採用メッセージ 生成AIで目指す完全自動運転: 山口 祐さん 生成AIで目指す完全自動運転: 第3世代の自動運転タスク 第3世代の自動運転タスク LLMから完全自動運転へ LLMから完全自動運転へ 自動運転に向けた学習戦略 自動運転に向けた学習戦略 政府のGENIACプロジェクトでGoogle CloudのH100×280を調達。 GENIACプロジェクト 別に独自Gaggle ClusterでH100×96を調達 Gaggle Cluster 大規模AIを車に搭載する 大規模AIを車に搭載する 自動運転AI: 開発の3軸 開発の3軸 完全自動運転の「知能」を実現するマルチモーダル生成AIの開発: 井ノ上 雄一さん 完全自動運転の「知能」 Heron-X。画像だけでなく、動画、テキスト、音声、アクションなどのモーダルを扱えるようにする。 Heron-X なぜマルチモーダル生成AIなのか なぜマルチモーダル 予測するとはどういうことかグラスの例で説明。 なぜマルチモーダル 生成AIのコア技術Transformerの可能性 Transformerでできること。 生成AIのコア技術Transformerの可能性 GPT-4で車を動かすことができた。素晴らしいことだが応答時間、精度など課題がある。 GPT-4で車を動かす マルチモーダルAI Heron マルチモーダルAI Heron 独自データセット 独自データセット Heronの高性能化 Heronの高性能化 MoE-Heron Mixture of Experts:パラメータサイズの小さい複数の専門家を配置することで推論コストを抑える。 MoE-Heron What’s Next… 動画生成AIモデルもやります。 What's Next 生成AIをエッジで実現するアクセラレーター開発: 柏屋 元史さん 生成AIをエッジで実現するアクセラレーター開発 Hummingbird : 生成AI用アクセラレーター半導体 Hummingbird なぜ半導体が必要なのか。完全自動運転を実現可能なエッジデバイスは存在しないので、ないなら作る。 なぜ半導体が必要なのか データセンターとエッジの違い。電源、格納場所に制限がある。 データセンターとエッジの違い パラメータの量子化&整数化 浮動小数点ではなく整数 量子化は 2〜8 bitの可変長で対応 パラメータの量子化&整数化 モデル改良 バンド幅を削減するためにMoEを使ってモデル化する。更に多段化する。 モデル改良 生成AI on FPGA まずはFPGAで検証する。 生成AI on FPGA Swan: 生成AIをFPGAで動かす実験的実装。オープンソースとして公開する予定。 Swan 半導体開発のロードマップ 2024 Phase 1 FPGA 2026 Phase 2 Test Chip 2028 Phase 3 MP Chip 2030 完全自動運転車への搭載 半導体開発のロードマップ End-to-Endな自動運転AIの実現 : 棚橋 耕太郎さん End-to-Endな自動運転AIの実現 Tokyo30 2025年までに、カメラとAIだけで東京エリアを30分以上、介入なしで走行し続ける自動運転モデルを開発するスローガン。 Tokyo30 End-to-Endな自動運転の構成 End-to-Endな自動運転の構成 End-to-Endな自動運転の構成を人に例えると End-to-Endな自動運転の構成 従来の自動運転システム 機能ごとに分かれたモジュールが独立して動いている。 LiDAR点群+HDマップ → Perception → Prediction → Planning → Control 従来の自動運転システム End-to-Endな自動運転AI 画像から車の経路を直接出力する。 End-to-Endな自動運転AI Data-Centric Approch モデルだけでなくデータを改善することで全体の精度を高める。 良いデータを作ることで良いモデルを作る。 Data-Centric Approch データ収集車両を使って、良いデータを集めている。 データ収集車両 走行動画データ検索 走行データにラベリングした多様な学習データをベクトル検索する。 UIがあるが、実際はAPI 走行動画データ検索 E2E自動運転モデル 世界を表すベクトルを獲得することで経路を生成する。 E2E自動運転モデル E2Eの主役はTransformer モデル全体を同時に学習することができる。 E2Eの主役はTransformer ルートナビゲーション 人がカーナビを見て運転するようにカーナビの画像を入力にモデリングする。 ルートナビゲーション Tokyo30タイムライン Tokyo30 2025年までのスケジュール Tokyo30タイムライン

不正確です。大体こんな感じのやりとりと思って下さい。

Q: 動画生成AIのSoraとの比較して同じかどうか。 A: 基本的にTransformerを使うのは一緒。Soraは綺麗な映像を目標とするものなのでその点は異なる。

Q: Tokyo30でどこまで実現 A: End to Endで賢いことができる

Q: e2eで賢くと言うことだが、具体的に言語モデルをどう制御に結びつけるのか。 A: 具体的にはこれから。最終的にはCANの制御になる。

Q: Tokyo30ではハミングバードを使うか、それともサーバーか。 A: ハミングバードになる。

Q: 半導体の人員構成は? A: 現在は人員は3人、やりたいこと以外は外のリソース使う。求人するが多くても10人とかで。

Q: 計算資源はテスラと比べてどうなんだ A: 生成AIでは同じラインに立っている。見た目ほどのビハインドではないと思ってる

Q: カメラだけでということだがジャイロセンサーなどは不要か A: 必要であれば取り入れるが、不要と考えている。カメラにこだわっている理由は、推論できる特徴量が多い。モジュールを減らしたい。

Q: 半導体にFPGAから次の段階のコストは? A: 5-6年後にどうなっているかはわからないがTransformerベースは変わらないと思うのでそこを見越している。

Q: シミュレーターを使っているか A: 検証で使うスタンス

Q: 自動運転車に対するUIは A: タクシーに乗った時の会話のように会話ベースのUIになる

Q: 自動運転が実現されたときに寡占化になるか。 A: ハンドルがない車を買う人がどれだけいるかわからないが、その時に何社が作れているか。Turingはその1社になる。

感想:どのセッションもLLMに力を入れていることを分かりやすく話してくれていて、方向性に関しては日本のどのメーカーよりも説得力があります。 また、Heronは自動運転にとどまらず広い応用範囲があると感じており、注目しています。 AI,半導体に特化した発表ということもあるかもしれませんが、実車や部品も見せて欲しかった。

山本 一成さんと記念撮影。とても元気で気さくな人でした。手ブレすみません。

この記事をシェア

関連記事

記事一覧に戻る