AI・機械学習
2026年02月27日

東大・NTT・NEC、6G/IOWN基盤でAIエージェント向け低遅延AR支援を実証

東大・NTT・NEC、6G/IOWN基盤でAIエージェント向け低遅延AR支援を実証

東大・NTT・NEC、6G/IOWN基盤でAIエージェント向け低遅延AR支援を実証(写真はイメージ)

東京大学、NTT、NECは、安心・安全を支えるAIエージェントの普及に向けて、6G/IOWN基盤に3者技術を統合し、リアルタイムAR支援の実証に成功したと発表しました。

本発表は、AIエージェントの価値をアプリやモデルの高度化だけで語るのではなく、通信や計算処理の制約も含めた「実装条件」として捉えている点が特徴と受け取れます。

AIエージェントの常時稼働が前提になるほど、基盤の制約が効いてくる

AIエージェントの利用が広がると、映像やセンサなどのマルチモーダルデータが継続的に発生し、扱うデータ量は増えていきます。その一方で、無線区間の帯域、推論に必要な計算リソース、消費電力といった制約は現場ごとに存在します。今回の発表は、こうした制約がボトルネックになり得るという問題意識から、技術課題を整理しています。

発表では、常時稼働型AIエージェントの利用が拡大した際に想定される課題として、無線区間の帯域不足、センサデータの常時AI処理による計算負荷の増大、AIの大規模化に伴う計算負荷・消費電力の増大を挙げています。

通信と計算処理をまとめて最適化する、3者技術の統合

3者は、上記の課題に対して、通信と計算処理をまたぐ形で3つの技術を統合したとしています。

東京大学のストリーミングセマンティック通信技術は、データの重要度に着目し、必要な情報を低データ量で送ることで、無線区間の通信リソース削減を狙うものです。

NECの生成AI向けメディア制御技術は、AIエージェントの前段でデータ識別器を設け、重要なセンサデータだけを選択的に入力することで推論に必要な計算リソースを減らす考え方です。

NTTのIn-Network Computing(INC)アーキテクチャ技術は、ネットワーク内に分散する小型の専門AIや外部情報源を組み合わせ、AI処理の高効率化と高信頼化を目指すアプローチと位置づけられています。

遅延の累積を抑えることが、リアルタイム支援の前提になる

実証では、危険シーンを含む動画データセット(60秒、1,800フレーム)を用い、ARグラス装着者の周辺環境をAIエージェントが継続的にモニタリングし、潜在的なリスク兆候を予測・判断するシナリオで評価したとしています。

事前評価では、全フレームを逐次AI処理する構成だと、処理待ち時間が累積し、エンドツーエンド遅延が時間の経過とともに増大する傾向を確認したと述べています。

その上で、提案技術を適用した構成では、通信量と計算負荷を抑え、動画全体を通じて遅延をほぼ一定に維持でき、推論精度の低下も確認されなかったとしています。

法人向けITの流れの中で、何を示唆しているか

AIエージェントは、チャットの延長としての利用にとどまらず、周辺環境を継続的に認識しながら動作する形態が注目されていると説明されています。

この文脈では、AIの精度を上げるだけでなく、「入力をどう制御するか」「処理をどこに置くか」という設計思想が重要になりそうです。例えば、全データをクラウドに集約して処理する前提から、重要度の高いデータを選別し、ネットワークやエッジ側で処理を分散するといった発想へ、比較軸が移っていく可能性があると考えられます。

AIエージェントの基本的な整理については、[AIエージェントとは?仕組みや種類、活用例をわかりやすく解説!]も参考にしてください。

導入や検討の立場で意識しておきたい点

リアルタイム性が求められるユースケースでは、遅延の平均値だけでなく、処理待ちの累積や揺らぎが運用上のリスクになり得ます。導入検討時には、モデル選定に加えて、入力データの扱い方や処理配置(端末、エッジ、ネットワーク内、クラウド)をどこまで設計に織り込めるかが、比較ポイントになっていきそうです。

まとめ

東大、NTT、NECの発表は、AIエージェント普及のボトルネックを通信・計算の制約として捉え、3者技術の統合で遅延の累積を抑える可能性を示した点がポイントです。今後、ユースケースや実装形態が増える中で、どの制約をどのレイヤーで吸収するのかという設計の考え方が、より明確になっていくと受け取れます。

top遷移画像

Copyright (C) 2026 IT Trend All Rights Reserved.