Saltar al contenido

¿Existe alguna limitación en Vuforia en comparación con ARCore y ARKit?

Solución:

Actualizado: 21 de febrero de 2021.

TL; DR

Google ARCore te permite crear aplicaciones para Android e iOS. Con Apple ARKit puedes crear aplicaciones para iOS; con Apple RealityKit – para iOS y macOS. Y un gran viejo PTC Vuforia fue diseñado para crear aplicaciones para Android, iOS y la plataforma universal de Windows.

Una peculiaridad crucial de Vuforia es que utiliza ARCore/ARKit tecnología si el hardware en el que se ejecuta lo admite; de ​​lo contrario, Vuforia utiliza su propia tecnología y motor AR, conocido como software solution without dependant hardware.

Al desarrollar para teléfonos inteligentes Android OEM, puede encontrarse con un problema desagradable: los dispositivos de diferentes fabricantes necesitan una calibración de sensores para observar la misma experiencia de AR. Afortunadamente, los dispositivos de Apple no tienen ese inconveniente porque todos los sensores que se usaron allí fueron calibrados en condiciones idénticas.

Para responder a esta pregunta, pongamos primero lo primero.

ingrese la descripción de la imagen aquí


ingrese la descripción de la imagen aquí

Google ARCore 1.23

ARCore se basa en los tres conceptos fundamentales principales: Motion Tracking, Environmental Understanding y Light Estimation. Por lo tanto, ARCore permite que un dispositivo móvil compatible rastree su posición y orientación en relación con el mundo en 6 grados de libertad (6DOF) utilizando una técnica especial llamada Mapeo y odometría concurrente. COM también nos ayuda a detectar el tamaño y la ubicación de superficies con orugas horizontales, verticales y en ángulo (como suelo, mesas, bancos, paredes, pendientes, etc.). Motion Tracking funciona de manera robusta gracias a los datos ópticos que provienen de una cámara a 60 fps, combinado con datos inerciales provenientes del giroscopio y el acelerómetro a 1000 fps. Naturalmente, ARKit y Vuforia funcionan casi de la misma manera.

Cuando mueve su teléfono a través del entorno real, ARCore rastrea un espacio circundante para comprender dónde está un teléfono inteligente, en relación con las coordenadas mundiales. En la etapa de seguimiento ARCore “cerdas“así llamado feature points que forman una nube de puntos dispersa y esta nube vive mientras la sesión de seguimiento está activa. Estos puntos característicos son visibles a través de la cámara RGB y ARCore los usa para calcular el cambio de ubicación del teléfono. Luego, los datos visuales deben combinarse con las mediciones provenientes del acelerómetro y el giroscopio (Unidad de medida Inercial) para estimar la posición y orientación de la ArCamera a lo largo del tiempo. ARCore busca grupos de puntos característicos que parecen estar en superficies horizontales, verticales o en ángulo y hace que estas superficies estén disponibles para su aplicación como planos (llamamos a esta técnica como detección de avión). Entonces, ahora puede usar estos planos para colocar objetos 3D en su escena. Después de esto, el compañero de ARCore renderizará la geometría virtual con sombreadores asignados: Forma de escena, apoyando OBJ, FBX y glTF activos y utilizando un tiempo real Representación basada en la física (también conocido como PBR) motor – Filamento.

No obstante lo anterior, en este momento, el repositorio de Sceneform se ha archivado y Google ya no lo mantiene activamente. La última versión publicada fue Sceneform 1.17.0.

La comprensión ambiental de ARCore le permite colocar objetos 3D y anotaciones 2D de una manera que se integra con el mundo real. Por ejemplo, puede colocar una taza de café virtual en la esquina de su mesa del mundo real usando ArAnchor.

ARCore también puede definir parámetros de iluminación de un entorno real y proporcionarle la intensidad media y la corrección de color de una imagen de cámara determinada. Estos datos te permiten iluminar tu escena virtual en las mismas condiciones que el entorno que te rodea, aumentando considerablemente la sensación de realismo.

La versión actual de ARCore tiene API tan importantes como Depth API, Lighting Estimation con Environmental HDR mode, Augmented Faces, Augmented Images, Instant Placement, Debugging Tools, Anclajes en la nube de 365 días, Recording and Playback y Multiplayer support. La principal ventaja de ARCore en Android Studio sobre ARKit en Xcode es el emulador de Android que le permite ejecutar y depurar aplicaciones de AR utilizando un dispositivo virtual.

ARCore es más antiguo que ARKit. ¿Recuerdas Project Tango lanzado en 2014? En términos generales, ARCore es solo un Tango SDK reescrito sin un soporte de cámara de profundidad. Pero una sabia adquisición de FlyBy y MetaIO ayudó a Apple no solo a ponerse al día, sino también a superar de forma significativa. Supongo que es muy bueno para la industria de la RA.

La última versión de ARCore requiere Android 7.0 Nougat o posterior, es compatible con la aceleración OpenGL ES 3.1 y se integra con Unity, Unreal y aplicaciones web. Por el momento, los conjuntos de chips más potentes y energéticamente eficientes para la experiencia de RA en la plataforma Android son Snapdragon 888 (5 nm), Exynos 2100 (5nm) y compatible Kirin 980 (7 nm).

Precio ARCore: GRATIS.

|------------------------------|------------------------------|
|        "ARCore PROs"         |        "ARCore CONs"         | 
|------------------------------|------------------------------|
| iToF and Depth API support   | No Body Tracking support     |
|------------------------------|------------------------------|
| Quick Plane Detection        | Cloud Anchors hosted online  |
|------------------------------|------------------------------|
| Long-distance-accuracy       | Lack of rendering engines    |
|------------------------------|------------------------------|
| ARCore Emulator in AS        | Poor developer documentation | 
|------------------------------|------------------------------|
| High-quality Lighting API    | No external camera support   |
|------------------------------|------------------------------|
| A lot of supported devices   | Poor Google Glass API        |
|------------------------------|------------------------------|

Aquí está el fragmento de código ARCore escrito en Kotlin:

private fun addNodeToScene(fragment: ArFragment, anchor: Anchor, renderable: Renderable) {
    
    val anchorNode = AnchorNode(anchor)
    anchorNode.setParent(fragment.arSceneView.scene)
    
    val modelNode = TransformableNode(fragment.transformationSystem)
    modelNode.setParent(anchorNode)
    modelNode.setRenderable(renderable)
    modelNode.localPosition = Vector3(0.0f, 0.0f, -3.0f)
    fragment.arSceneView.scene.addChild(anchorNode)
    
    modelNode.select()
}

ingrese la descripción de la imagen aquí
ingrese la descripción de la imagen aquí

Apple ARKit 4.0

ARKit se lanzó en junio de 2017 y solo dos años después se hizo muy popular. Como sus competidores, ARKit también utiliza una técnica especial, llamada Odometría inercial visual, para rastrear con mucha precisión el mundo que rodea su dispositivo. VIO es bastante similar al COM que se encuentra en ARCore. También hay tres conceptos fundamentales similares en ARKit: World Tracking, Scene Understanding (que incluye cuatro etapas: Detección de avión, Prueba de aciertos / Ray-Casting, Estimación de luz, Reconstrucción de escena), y Rendering con una gran ayuda de los compañeros de ARKit – SceneKit framework, que en realidad es un motor de juegos 3D de Apple desde 2012, RealityKit marco creado especialmente para AR y escrito en Swift desde cero (lanzado en 2019), y SpriteKit framework con su motor 2D (desde 2013).

VIO fusiona los datos del sensor RGB a 60 fps con datos Core-Motion (IMU) a 1000 fps. Además de eso, SceneKit, por ejemplo, puede renderizar toda la geometría 3D a 30/60/120 fps. Entonces, bajo tales circunstancias, creo que debe tenerse en cuenta que debido a un impacto energético muy alto (debido a una enorme carga en la CPU y la GPU), la batería de su iPhone se agotará con bastante rapidez.

ARKit tiene varios métodos útiles para realizar un seguimiento sólido y realizar mediciones precisas. Entre su arsenal puede encontrar una funcionalidad fácil de usar para guardar y recuperar ARWorldMaps. El mapa del mundo es un “portal” indispensable para Persistente y Experiencia de RA multiusuario que le permite volver al mismo entorno lleno con el mismo contenido 3D elegido justo antes del momento en que su aplicación se volvió inactiva. Soporte para simultáneo front y back captura de cámara y soporte para collaborative sessions que nos permite compartir mapas del mundo también son geniales.

Hay buenas noticias para los jugadores: hasta 6 personas pueden jugar simultáneamente el mismo juego de RA, gracias al marco MultipeerConnectivity. Para la geometría 3D, puede usar un formato de archivo USDZ completamente nuevo, desarrollado y compatible con Pixar, que es una buena opción para modelos 3D sofisticados con muchos sombreadores y animaciones PBR. También puede utilizar los siguientes formatos 3D para ARKit.

ARKit no solo puede ayudarlo a rastrear una posición y orientación de su dispositivo en relación con el mundo en 6 DOF, sino que también lo puede ayudar a realizar la técnica de oclusión de personas y objetos (basada en alfa y profundidad segmentación de canales), LiDAR Scene Reconstruction, Body Motion Capture tracking, 2D tracking, Vertical and Horizontal Planes detection, Image detection, 3D Object detection y 3D Object scanning. Con la herramienta de oclusión de personas y objetos, su contenido de realidad aumentada pasa de manera realista por detrás y por delante de las entidades del mundo real, lo que hace que las experiencias de realidad aumentada sean aún más inmersivas. También, Realistic reflections, que utilizan algoritmos de aprendizaje automático y Face-based AR experience que le permite rastrear hasta 3 caras a la vez están disponibles para usted.

Al usar iBeacons junto con ARKit, ayuda a una aplicación compatible con iBeacon a saber en qué sala se encuentra y mostrar el contenido 3D / 2D correcto elegido para esa sala. Al trabajar con ARKit, debe explotar intensamente la clase ARAnchor y todas sus subclases, de la misma manera que lo ha estado usando en ARCore.

Preste especial atención al satélite de RealityKit: Reality Composer aplicación que ahora forma parte de Xcode. Esta nueva aplicación te ayuda a crear escenas 3D para AR. Las escenas creadas en Reality Composer se pueden empaquetar con dinámicas, animaciones simples y materiales PBR. Reality Composer se puede instalar en iOS y iPadOS como una aplicación independiente.

Para crear aplicaciones de realidad aumentada basadas en las últimas versiones de ARKit 4.0, incluida la compatibilidad con el nuevo escáner LiDAR, necesita macOS 11 Big Sur, Xcode 12 y un dispositivo con iOS 14 o iPadOS 14. Una triste noticia es que todas las funciones principales de ARKit 4.0 están restringidas a dispositivos con chipset Apple A12 y superior. También ARKit 4.0 es un candidato digno para casarse con Metal Framework para la aceleración de GPU. No olvide que ARKit se integra estrechamente con Unity y Unreal. Por el momento, los conjuntos de chips más potentes y energéticamente eficientes para la experiencia de RA son A14 biónico (5 nm), A13 biónico (7 nm) y A12z biónico (7 nm).

Precio ARKit: GRATIS.

|------------------------------|------------------------------|
|         "ARKit PROs"         |         "ARKit CONs"         | 
|------------------------------|------------------------------|
| LiDAR and Depth API support  | No AR glasses support        |
|------------------------------|------------------------------|
| Stable 6 DoF World Tracking  | No auto-update for Anchors   |
|------------------------------|------------------------------|
| Collaborative Sessions       | ARKit 4.0 / 3.5 Restrictions |
|------------------------------|------------------------------|
| WorldMaps, iBeacon-awareness | No ARKit Simulator in Xcode  |
|------------------------------|------------------------------|
| 4 rendering technologies     | No external camera support   |
|------------------------------|------------------------------|
| Rich developer documentation | Quickly drains your battery  |
|------------------------------|------------------------------|

Aquí está el fragmento de código de ARKit escrito en Swift:

func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
    
    guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
    let planeNode = tableTop(planeAnchor)
    node.addChildNode(planeNode)
}
    
func tableTop(_ anchor: ARPlaneAnchor) -> SCNNode {
    
    let x = CGFloat(anchor.extent.x)
    let z = CGFloat(anchor.extent.z)
    
    let tableNode = SCNNode()
    tableNode.geometry = SCNPlane(width: x, height: z)
    tableNode.position = SCNVector3(anchor.center.x, 0, anchor.center.z)
    return tableNode
}

ingrese la descripción de la imagen aquí
ingrese la descripción de la imagen aquí

Apple RealityKit 2.0

Debería mirar detenidamente RealityKit que se presentó en WWDC 2019. Desde entonces, ha habido mucha publicidad a su alrededor. RealityKit te permite crear experiencias de realidad aumentada para iOS / iPadOS y experiencias de realidad virtual para móviles y macOS. Este marco de alto nivel funciona con .usdz activos así como con .rcproject y .reality formatos de archivo que puede importar desde la aplicación independiente macOS o iOS: Reality Composer (RC). Los ingenieros de software de Cupertino crearon RealityKit desde cero para aplicaciones de realidad aumentada que puede crear sin código repetitivo. Funciona con Swift desde cero, no hay un legado de Objective-C. Y, por supuesto, RealityKit brilla no solo con SwiftUI y UIKit, sino también con Metal.

El framework RealityKit tiene varios bloques fundamentales en los que se basan las escenas de RealityKit: una clase padre Entidad, una clase AnchorEntity que rastrea automáticamente el objetivo (a diferencia de ARKit), clases BodyTrackedEntity, ModelEntity, PointLight, Destacar, Luz direccional, TriggerVolume y PerspectivaCámara. Estas entidades son como los nodos de SceneKit pero ligeramente diferentes en estructura jerárquica. Y, por supuesto, la mayoría de las entidades tienen componentes. Sería útil decir que ModelEntity se basa en MeshResource y Materials y ahora hay soporte para VideoMaterial en RealityKit 2.0.

ingrese la descripción de la imagen aquí

RealityKit framework le ofrece un amplio conjunto de elementos básicos para trabajar con AR y VR: nueva sintaxis declarativa Swift, primitivas 3D (por el momento box, plane, sphere y text), Materiales PBR con texturas, material de oclusión y material de video, accesorios de iluminación (directional, spot y point) con sombras realistas con trazado de rayos, procesamiento de audio espacial, diferentes tipos de anclajes (body, camera, face, image, object, horizontal plane, vertical plane, raycastResult, ARAnchor y world), configuración simplificada para sesiones colaborativas, configuración robusta de animaciones y física, características integradas de AI y ML indispensables y muchas otras cosas útiles.

Compositor de realidad La aplicación le brinda una interfaz de usuario simple e intuitiva para construir escenas 3D para experiencias de realidad aumentada. Tiene una biblioteca libre de regalías con recursos 3D descargables que le permiten construir escenas 3D sofisticadas con animación, audio y dinámica que contienen una descripción detallada de cómo se comportan estos objetos. También puede exportar su composición como una experiencia ligera de AR Quick Look que permite a los usuarios colocar y obtener una vista previa de un contenido. En la aplicación Reality Composer, puede iniciar su proyecto utilizando uno de los cinco tipos de anclajes: horizontal, vertical, image, face y object – que corresponde al tipo de seguimiento deseado.

Precio de RealityKit y Reality Composer: GRATIS.

|------------------------------|------------------------------|
|       "RealityKit PROs"      |      "RealityKit CONs"       | 
|------------------------------|------------------------------|
| Can create AR apps w/o ARKit | Intensive usage of CPU/GPU   |
|------------------------------|------------------------------|
| Very little boilerplate code | iOS 13+, macOS 10.15+ only   |
|------------------------------|------------------------------|
| Suitable for AR/VR projects  | Start lagging on old devices |
|------------------------------|------------------------------|
| Robust API for RC scenes     | Limited shaders capabilities |
|------------------------------|------------------------------|
| Asynchronous asset loading   | Lack of Apple documentation  |
|------------------------------|------------------------------|
| Autoupdating tracking target | No AR glasses support        |
|------------------------------|------------------------------|

Aquí está el fragmento de código de RealityKit escrito en Swift:

override func viewDidLoad() {
    super.viewDidLoad()
    
    let textAnchor = try! SomeText.loadTextScene()
    let textEntity: Entity = textAnchor.realityComposer!.children[0]
    var textMC: ModelComponent = textEntity.children[0].components[ModelComponent]!
    
    var material = SimpleMaterial()
    material.baseColor = .color(.yellow)
    textMC.materials[0] = material
    textMC.mesh = .generateText("Hello, RealityKit")
    textAnchor.realityComposer!.children[0].children[0].components.set(textMC)
    arView.scene.anchors.append(textAnchor)
}

descr

Una parte más importante del ecosistema AR de Apple es Reality Converter aplicación. Ahora, en lugar de usar una herramienta de conversión de línea de comandos, puede usar un Reality Converter. La nueva aplicación le facilita convertir, ver y personalizar .usdz Objetos 3D en Mac. Simplemente arrastre y suelte formatos de archivo 3D comunes, como .obj, .gltf o .usd, para ver los convertidos .usdz Como resultado, personalice las propiedades del material con sus propias texturas y edite los metadatos del archivo. Incluso puede obtener una vista previa de su .usdz objeto en una variedad de condiciones de iluminación y ambientales con opciones integradas de iluminación basada en imágenes (IBL).

descr
descr

PTC Vuforia 9.7

En octubre de 2015, PTC adquirió Vuforia de Qualcomm por 65 millones de dólares. Tenga en cuenta que Qualcomm lanzó Vuforia en 2010. Por lo tanto, Vuforia es una hermana mayor de la familia AR. ¡La hermana mayor los está mirando, chicos! 😉

En noviembre de 2016, Unity Technologies y PTC anunciaron una colaboración estratégica para simplificar el desarrollo de AR. Desde entonces, trabajan juntos integrando nuevas funciones de la plataforma Vuforia AR en el motor de juego de Unity. Vuforia se puede utilizar con entornos de desarrollo como Unity, MS Visual Studio, Apple Xcode y Android Studio. Es compatible con una amplia gama de teléfonos inteligentes, tabletas y gafas inteligentes AR, como HoloLens, Magic Leap, Vuzix M400 y ODG R7.

Vuforia Engine cuenta con aproximadamente las mismas capacidades principales que puede encontrar en las últimas versiones de ARKit, pero también tiene sus propias características, como Model Targets con Deep Learning, VISLAM para experiencia de AR sin marcadores y soporte de cámara externa para iOS, nuevas API experimentales para ARCore y ARKit y soporte para las últimas gafas AR de la industria. La principal ventaja de Vuforia sobre ARKit y ARCore es que tiene una lista más amplia de dispositivos compatibles y es compatible con el desarrollo de aplicaciones de la Plataforma universal de Windows para dispositivos Windows 10 basados ​​en Intel, incluidos Microsoft Surface y HoloLens.

Vuforia tiene una versión independiente y una versión integrada directamente en Unity. Tiene la siguiente funcionalidad:

  • Objetivos de modelo avanzados 360, reconocimiento impulsado por IA;
  • Modelos de objetivos con aprendizaje profundo, permiten reconocer instantáneamente objetos por forma utilizando modelos 3D preexistentes y algoritmos de aprendizaje profundo;
  • Objetivos de imagen, la forma más sencilla de colocar contenido AR en objetos planos;
  • Objetivos múltiples, para objetos con superficies planas y múltiples lados;
  • Objetivos de cilindro, para colocar contenido de RA en objetos con formas cilíndricas, como botellas;
  • Plano terrestre, como parte de Smart Terrain, esta función permite colocar contenido digital en suelos y superficies de mesas;
  • VuMarks, permite identificar y agregar contenido a una serie de objetos;
  • Objetivos de objeto, para escanear un objeto;
  • Modos estático y adaptativo, para objetos estacionarios y en movimiento;
  • Modo de juego de simulación, permite a los desarrolladores “recorrer” o recorrer el modelo 3D y ver la experiencia de realidad aumentada final desde su computadora;
  • Creador de objetivos de área de Vuforia aplicación, nos permite escanear y generar nuevos objetivos de área mediante el uso de dispositivos móviles con capacidad de profundidad;
  • Grabador de sesiones de AR, puede grabar experiencias de RA en la ubicación y luego usar esa grabación con el modo Reproducción en Unity para editar y actualizar;
  • y por supuesto, Vuforia Fusion y Objetivos de área del motor de Vuforia.

Vuforia Fusion es una capacidad diseñada para resolver el problema de la fragmentación en tecnologías de habilitación de AR, como cámaras, sensores, conjuntos de chips y marcos de software como ARKit. Con Vuforia Fusion, su aplicación proporcionará automáticamente la mejor experiencia posible sin necesidad de trabajo adicional por su parte.

Objetivos de área del motor de Vuforia Permitir a los desarrolladores utilizar un espacio completo, ya sea un piso de fábrica o una tienda minorista, como un objetivo de realidad aumentada. Usando un primer dispositivo compatible, un Matterport Pro2 cámara, los desarrolladores pueden crear un escaneo 3D detallado de la ubicación deseada. Se recomienda que las ubicaciones sean interiores, en su mayoría estáticas, y que no superen los 1.000 metros cuadrados (alrededor de 10.000 pies cuadrados). Una vez que el escaneo produce un modelo 3D, se puede convertir en un objetivo de área con el generador de objetivo de área de Vuforia. Luego, este objetivo puede llevarse a Unity.

La API de Vuforia permite Static o Adaptive modo. Cuando el modelo del mundo real permanece estacionario, como una gran máquina industrial, la implementación de la Static La API utilizará una potencia de procesamiento significativamente menor. Esto permite una experiencia de mayor rendimiento y mayor duración para esos modelos. Para objetos que no estarán estacionarios, Adaptive API permite una experiencia sólida continua.

los External Camera La función es parte del Vuforia Engine Driver Framework. La cámara externa proporciona una nueva perspectiva de lo que es posible con la realidad aumentada. Permite a Vuforia Engine acceder a fuentes de video externas más allá de la cámara equipada en teléfonos y tabletas. Al usar una cámara independiente, los desarrolladores pueden crear una experiencia de realidad aumentada que ofrezca una vista en primera persona de juguetes, robots o herramientas industriales.

Occlusion Management es una de las características clave para crear una experiencia de RA realista. Cuando usa Occlusion Management, Vuforia Engine detecta y rastrea los objetivos, incluso cuando están parcialmente ocultos detrás de las barreras cotidianas, como su mano. El manejo de oclusión especial permite que las aplicaciones muestren gráficos como si aparecieran dentro de objetos físicos.

Vuforia admite la aceleración de Metal para dispositivos iOS. También puede utilizar Vuforia Samples para sus proyectos. Por ejemplo: el Vuforia Core Samples La biblioteca incluye varias escenas que utilizan las funciones de Vuforia, incluida una escena de reconocimiento de objetos preconfigurada que puede usar como referencia y punto de partida para la aplicación de reconocimiento de objetos.

ingrese la descripción de la imagen aquí

Aquí está el fragmento de código de AR Foundation escrito en C #:

private void UpdatePlacementPose() {

    var screenCenter = Camera.main.ViewportToScreenPoint(new Vector3(0.5f, 0.5f));
    var hits = new List<ARRaycastHit>();
    arOrigin.Raycast(screenCenter, hits, TrackableType.Planes);
    
    placementPoseIsValid = hits.Count > 0;

    if (placementPoseIsValid) {

        placementPose = hits[0].pose;
    
        var cameraForward = Camera.current.transform.forward;
        var cameraBearing = new Vector3(cameraForward.x, 
                                        0, 
                                        cameraForward.z).normalized;

        placementPose.rotation = Quaternion.LookRotation(cameraBearing);
    }
}

Opciones de precios de Vuforia SDK:

  • Licencia gratuita – solo necesita registrarse para obtener una clave de licencia de desarrollo gratuita

  • Licencia básica ($ 42 / mes, facturado anualmente) – Para estudiantes

  • Licencia básica + nube ($ 99 / mes) – Para pequeñas empresas

  • Paquete de agencia (precio personal) – 5 licencias de corta duración

  • Licencia Pro (precio personal) – Para todos los tipos de empresas

Aquí están los pros y los contras.

|------------------------------|------------------------------|
|       "Vuforia PROs"         |        "Vuforia CONs"        | 
|------------------------------|------------------------------|
| Supports Android, iOS, UWP   | The price is not reasonable  |
|------------------------------|------------------------------|
| A lot of supported devices   | Poor developer documentation |
|------------------------------|------------------------------|
| External Camera support      | SDK has some issues and bugs |
|------------------------------|------------------------------|
| Webcam/Simulator Play Mode   | Doesn't support Geo tracking |
|------------------------------|------------------------------|

descr

CONCLUSIÓN :

No existen limitaciones significativas al desarrollar con PTC Vuforia en comparación con ARCore y ARKit. Vuforia es un gran producto antiguo y es compatible con una lista más amplia de dispositivos Apple y Android que no son oficialmente compatibles y, por supuesto, es compatible con varios modelos más recientes de gafas AR.

Pero en mi opinión, ARKit con un Familia de la realidad El kit de herramientas (RealityKit, Reality Composer y Reality Converter) tiene un montón adicional de funciones útiles actualizadas que Vuforia y ARCore solo tienen parcialmente. ARKit personalmente tiene una precisión de medición a corta distancia mucho mayor, si no sorprendente, que cualquier dispositivo compatible con ARCore, dentro de una habitación o en una calle, sin necesidad de calibración. Esto se logra mediante el uso del escáner Apple LiDAR. ARCore ahora usa cámaras iToF y Depth API, y Vuforia también agrega Occlusion Management función a una imagen completa. El escaneo LiDAR le permite crear una malla virtual de alta calidad con OcclusionMaterial para superficies del mundo real en la etapa de comprensión de la escena. Esta malla está lista para la colisión y lista para encenderse. Con LiDAR, ARKit detecta instantáneamente superficies no planas y superficies sin características en absoluto, como paredes blancas sin textura en habitaciones con poca iluminación.

Además, si implementa herramientas iBeacon, WorldMaps y soporte para GPS, lo ayudará a eliminar cualquier error de seguimiento acumulado a lo largo del tiempo. Y la estrecha integración de ARKit con los marcos Vision y CoreML hace una gran contribución a un conjunto de herramientas de AR robusto. La integración con Apple Maps permite poner ARKit GPS Location Anchors al aire libre con la mayor precisión posible en este momento.

La precisión de medición de Vuforia depende en gran medida de la plataforma para la que esté desarrollando. Algunas de las funciones de Vuforia se basan en el motor de seguimiento disponible en la plataforma específica (por ejemplo, ARKit o ARCore). Incluso la popular aplicación Vuforia Chalk usa Vuforia Fusion, que a su vez usa el rastreador posicional ARKit / ARCore.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *