jjzjj

ARKit版

全部标签

ios - 在 ARKit 中获取相机的向上矢量

我试图在ARKit中获取构成平截头体边界的四个向量,我想出的解决方案如下:找到相机的视野角然后找到相机的方向和向上向量使用这些信息,使用叉积和旋转找到四个向量这可能是一种草率的做法,但它是迄今为止我得到的最好的方法。我能够从ARCamera.intrinsics和ARCamera.transform属性中获取FOV角度和方向向量。但是,此时我不知道如何获取相机的向上矢量。下面是我用来查找FOV角度和方向向量的代码:funcsession(_session:ARSession,didUpdateframe:ARFrame){ifxFovDegrees==nil||yFovDegrees=

iOS ARKit + SceneKit 物理接触检测缩放问题

我有一个简单的3d区域,其中包含4个墙,每个墙都是一个SCNNode,具有简单的SCNBox几何形状,矩形形状,并附有匹配的SCNPhysicsBody。SCNPhysicsBody使用SCNPhysicsShape.ShapeType.boundingBox,并设置为静态类型。这是一个代码片段:letsize=(self.levelNode.boundingBox.max-self.levelNode.boundingBox.min)*self.levelNode.scale//x//zletgeometryA=SCNBox(width:CGFloat(size.x),height:

ios - ARKit 1.5 : Extract the recognized image

所以,我的目标是:找到已知图像从sceneView中提取它(例如拍摄快照)执行进一步处理使用ARReferenceImage很容易完成第一步:guardletreferenceImages=ARReferenceImage.referenceImages(inGroupNamed:"ARResources",bundle:nil)else{return}letconfiguration=ARWorldTrackingConfiguration()configuration.detectionImages=referenceImages但现在我不知道如何从SceneView中提取图像。我

ios - ARKit 2 卡住 : a bug or my misfortune?

只有我在iOS12上体验过ARKit画面卡顿吗?当您在生成过于密集的点云的空间中使用该应用程序的时间过长时,通常会发生这种情况。一定时间后,整个画面开始滞后,然后完全停止移动,直到你盖住相机,或者将它从你的物体上移开,或者重置ARsession。自从我更新到iOS12后,我开始遇到这个问题,但是我搜索了几个论坛看是否有其他人遇到了这个问题,但找不到任何人。我想知道是我的问题还是常见的错误?UPD:iOS12beta2-问题仍然存在 最佳答案 您还有问题吗?在升级到Xcode10和iOS12之后,我今天遇到了一个更糟糕的问题。当我的所

ios - 我可以使用 ARKit 和 ARSK View 更改 anchor 或移动图像吗?

我正在尝试使用ARKit构建一个指南针,但我在处理移动图像时遇到了问题。指南针由每个主要方向的4个子画面组成,每个子画面都悬停在距离相机一米的特定位置。我希望指南针围绕着相机,这样即使用户移动,指南针仍然围绕着他们。但是,我不知道如何在第一次设置后移动这些图像的位置。我知道可以在ARSCNView中移动节点,但我使用的是ARSKView,据我所知,移动anchor是不可能的。如果我不移动anchor,我可以用什么方式改变图像的位置?这甚至可以通过ARSKView实现,还是我应该放弃并切换到ARSCNView? 最佳答案 您的用例表明

ios - 如何使用 ARkit 在增强现实应用程序中关闭/打开 AR?

我开始学习如何使用ARkit,我想添加一个按钮,就像Pokemongo应用程序中的那个按钮,您可以在其中切换ARON(有模型进入现实世界)和AROFF(没有使用相机,只有具有固定背景的3D模型)。有什么简单的方法吗? 最佳答案 您所询问的另一个很好的例子是iOS12中的AR快速查看功能(请参阅WWDCvideo或thisarticle):当您快速查看USDZ文件时,您会得到一个通用的白色背景预览,您可以在其中查看可以使用触摸手势旋转对象,您可以在该对象和真实世界的AR相机View之间来回无缝切换。您询问了有关ARKit的信息,但没有

ios - 控制缩放行为 ARKit

这似乎是一种奇怪的行为,但我想知道是否有一种方法可以让节点在屏幕上具有相同的大小,无论它离相机有多远?我正在尝试在城市中显示二维元素(只是一个文本和一个图像),其中一些可能很远,但我仍然希望文本和图像可见,但我也不希望它看起来当我离它太近时会变得巨大。我目前正在使用AppleSpriteKit示例:overridefunctouchesBegan(_touches:Set,withevent:UIEvent?){guardletsceneView=self.viewas?ARSKViewelse{return}//Createanchorusingthecamera'scurrentp

ios - ARKit 添加 X 翻转的 2D 视频

所以我有以下代码来创建自定义墙letwall=SCNPlane(width:CGFloat(distance),height:CGFloat(height))wall.firstMaterial=wallMaterial()letnode=SCNNode(geometry:wall)//alwaysrenderbeforethebeachballsnode.renderingOrder=-10//getcenterpointnode.position=SCNVector3(from.x+(to.x-from.x)*0.5,from.y+height*0.5,from.z+(to.z-f

ios - 在 iPhone XS 上使用 ARKit2 和 Vision (VNDetectFaceRectanglesRequest) 时如何修复 IOAF 代码 GPU 错误

在iPhoneXS(使用iOS12.1.2和Xcode10.1)上运行ARKit时,我在运行视觉代码以检测面部边界时遇到错误和崩溃/挂起。我遇到的错误是:2019-01-0403:03:03.155867-0800ARKitVisionDemo[12969:3307770]Executionofthecommandbufferwasabortedduetoanerrorduringexecution.CausedGPUTimeoutError(IOAFcode2)2019-01-0403:03:03.155786-0800ARKitVisionDemo[12969:3307850]Ex

ios - 使用 ARKit 加载的 3d 文件有大小限制吗?

我正在使用ARKit开发增强现实应用,我们需要在其中加载一组建筑物的3D模型。我计划的是检测水平面并将物体放在那里。检测到的3d模型或平面尺寸是否有任何尺寸限制? 最佳答案 如果您谈论的是文件的物理大小,我应该说每个模型的多边形数量比以MB为单位的大小重要得多。尝试创建每个模型包含5K到10K面的模型。如果您谈论的是3D建筑物本身的大小,请记住,对于大型环境,您需要设置ZClipping的Far属性,即相机平截头体的远剪裁平面。默认值为100米。并准备好为远距离物体渲染深度伪影。希望这对您有所帮助。