NEWS

iOS 14/iPadOS 14:ARKit 4の新機能

※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。

ARKit 4

ARKit 4

Appleが、WWDC20において「Explore ARKit 4」「Build Image and Video Style Transfer models in Create ML」を公開し「ARKit 4」について解説しています。

iPadOS 14では、まったく新しいDepth APIが導入され、iPad ProのLiDARスキャナーによって収集された詳細な深度情報にアクセスするための新しい方法が作成されます。


Location anchors

Location anchors

iPhone XS、iPhone XS Max、iPhone XR以降のiPhoneで、ロケーションアンカーを使用し、特定の緯度、経度、高度の座標でARの作成物をアンカーすることが可能になります。

ユーザーは、仮想オブジェクトを移動して、実際のオブジェクトがカメラのレンズを通して見られるのとまったく同じように、異なる視点からそれらを見ることができます。


Depth API

Depth API

LiDARスキャナーに組み込まれた高度なシーン理解機能により、周囲の環境に関するピクセルごとの深度情報を使用できます。

シーンジオメトリによって生成された3Dメッシュデータと組み合わせると、仮想オブジェクトを瞬時に配置し、それらを物理的な環境とシームレスにブレンドすることで、仮想オブジェクトのオクルージョンをさらにリアルにします。


Extended support for FaceTracking

Extended support for FaceTracking

TrueDepthカメラを搭載しないiPhone SE (2nd generation)や、A12 Bionicチップ以降を搭載したiPhone XR、iPhone XS、iPhone XS Max、iPad Air (3rd generation)、iPad mini (5th Generation)でも前面カメラを使用してAR体験を楽しむことができます。


Style Transfer with ARKit 4

Style Transfer with ARKit 4

ARKit 4オブジェクトを、身体の動きを学習させたCreate MLによって動かし、Vision Frameworkにより、実際にカメラ前で踊る人と合成することが可能になります。

配置するARKit 4オブジェクトは1つではなく複数配置が可能です。


関連記事

この記事のハッシュタグ から関連する記事を表示しています。

新着記事