ポケモンGOプレイヤーが訓練を支援!NianticがAI世界モデルを構築し、配達ロボット産業を支援

CryptoCity

Nianticは、300億枚のポケモンGO都市画像を活用し、視覚位置特定システムを構築、公分単位の精度を実現し、1,000台の配送ロボットをテスト導入しています。

世界的に人気の拡張現実ゲーム『ポケモンGO』の開発元Niantic傘下のAI企業Niantic Spatialは、長年プレイヤーが撮影した数十億枚の都市画像を利用し、現実世界を理解できる「視覚位置特定システム」とAI世界モデルを構築しています。この技術はGPS信号が不安定な都市環境でも正確に位置を特定でき、配送ロボット企業と協力してテストを行い、今後のロボットやAIの現実世界ナビゲーションに新たな方向性を示しています。

ポケモンGOプレイヤーの画像をAI訓練データに、都市写真から世界モデルを構築

『ポケモンGO』は2016年のリリース以来、世界的にヒットし、プレイヤーはスマートフォンのカメラを使って現実世界でポケモンを捕まえます。Nianticが開発したこの有名なARゲームは、長年にわたり毎年1億人以上のアクティブプレイヤーを維持しています。

しかし、プレイヤーはゲーム中に絶えずスマホのカメラを都市の建築物やランドマークに向ける必要があり、これが無意識のうちに大量の画像データを蓄積しています。

Niantic傘下のAI企業Niantic Spatialは、最近、世界中の都市環境から収集した約300億枚の写真を整理・蓄積したと発表しました。これらの画像には、正確な位置情報や撮影情報(スマホの向き、移動速度、角度など)が付与されており、これらのデータはAIの訓練に用いられ、「現実空間を理解する世界モデル」の構築に役立てられています。

視覚位置特定システム vs GPS:AIは建築画像から正確な位置を判断

NewsForceの報道によると、Niantic Spatialが最新開発した技術は「視覚位置特定システム(Visual Positioning System, VPS)」です。このAIモデルは、建築物やランドマークの写真を分析し、ユーザーの位置を判定します。精度は公分単位に達することもあります。

同社は、現在のデータベースには世界中の100万以上のランドマークが登録されていると述べています。各地点には、異なる時間、角度、天候条件下で撮影された数千枚の画像が蓄積されており、AIはこれらの画像の特徴を比較することで、端末の位置と向きを推定し、非常に高精度の位置情報を提供します。

Niantic Spatialの技術責任者Brian McClendonは、これが従来のGPSと異なる点を指摘します。GPSは衛星信号に依存しますが、VPSは「見えるもの」を基に位置を判断します。

高層ビルが密集する都市環境では、GPS信号はしばしば偏差を生じ、数十メートルの誤差や方向の誤りを引き起こすことがあります。

この誤差は一般ユーザーには大きな影響はありませんが、正確なナビゲーションを必要とするロボットにとっては重大な問題となるため、画像認識を用いた位置特定技術はロボット企業も注目しています。

ポケモン捕獲から配送へ:配送ロボットにNiantic技術が導入

Niantic Spatialは、現在、配送ロボット企業Coco Roboticsと協力してテストを進めています。Cocoは米国やヨーロッパの複数都市に約1,000台の配送ロボットを展開し、飲食や日用品の配送に利用しています。これらのロボットは小型のスーツケース程度のサイズで、最大8枚の大型ピザや4袋の買い物を運ぶことができます。

同社によると、これまでに50万回以上の配送を完了していますが、GPSの精度不足により、レストランや顧客の玄関前に正確に停められないケースもあります。

Nianticの視覚位置特定モデルを活用することで、ロボットは搭載された4つのカメラで周囲の環境を分析し、より正確に位置と進行方向を判断できるため、配送の信頼性が向上します。

ロボット時代の到来:Nianticは「ライブマップ」構築を目指す

Niantic SpatialのCEO、John Hankeは、最初はAR眼鏡やARアプリのために視覚位置特定技術を開発していましたが、ロボット産業の急速な発展に伴い、技術をロボットのナビゲーションに転用し始めたと述べています。

彼は、「ライブマップ(Living Map)」と呼ばれるシステムを構築中で、これは高度に詳細で継続的に更新されるデジタル世界モデルです。現実世界の変化に応じて絶えずアップデートされる仕組みです。

将来的には、配送ロボットやスマートデバイス、AR装置などもこの地図データの供給源となり、環境情報を継続的に送信し続けることで、デジタル世界は現実世界の動的な姿に近づいていきます。

AIは現実世界を理解する必要がある:「World Model」が技術の新焦点

近年、AI研究では「世界モデル(World Model)」の概念が注目されています。大規模言語モデル(LLM)は文章や知識処理に優れていますが、物理空間や現実環境の理解には明らかな制約があります。

地図や画像、環境情報を組み合わせることで、世界モデルはAIに物体や空間関係、環境変化を理解させることを目指しています。Google DeepMindなども、仮想世界を生成できるモデルの開発に取り組んでいます。

Niantic Spatialは、異なる戦略を採用し、多数の実世界画像データを用いて現実世界のデジタルモデルを段階的に再構築しています。データが蓄積されるにつれ、このシステムは将来のロボットやAIが現実世界を理解するための重要な基盤となる可能性があります。

  • 本文は許諾を得て転載しています:《鏈新聞》
  • 原文タイトル:《寶可夢玩家替公司訓練 300 億張照片打造「AI 世界模型」,助攻外送機器人產業》
  • 原文著者:Crumax
原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし