开发者

要取代iPhone了?苹果混合现实头显新功能曝光[AppleWatch]?

据The Information报道,Apple的混合现实头显将配备一个用于切换到现实世界视图的物理表盘,一个腰部安装的电池组,用于自动调节镜头的小型电机等等。

腰部安装的电池,通过类似 MagSafe 的磁性电源线连接到头显的头带。一次电池充电的持续时间不超过两个小时,但用户可以将电池换出以进行更长的会话。使用铝、玻璃和碳纤维来减小其尺寸和重量的设计。出于美学原因,相机在很大程度上是隐藏的。右侧的小型数字表冠式表盘,使用户能够在虚拟世界和物理世界之间快速过渡。与Apple Watch不同,它不会提供触觉反馈。苹果开发了不同的头带,包括一种针对消费者的头带,其材料与带有内置扬声器的Apple Watch运动表带相似,另一种针对开发人员。为眼镜佩戴者提供磁性可安装的定制处方镜片。小型电机可自动调整其内部镜片以匹配佩戴者的瞳距,为每个人提供尽可能大的视野。120度视野,如Valve Index,超过Meta Quest Pro的106度视野。H2芯片,用于与第二代AirPods Pro和未来AirPods型号的超低延迟连接。两个芯片,包括一个主SoC,包括CPU,GPU和内存,以及一个专用的图像信号处理器。两者都采用5nm工艺制造,这意味着耳机错过了预计今年晚些时候其他Apple芯片的进步。这些芯片通过自定义流编解码器进行通信,由于不可接受的延迟,Apple被迫开发该编解码器。专用ISP将外部摄像头捕获的失真图像转换为用户周围环境的忠实视频表示,延迟低。该芯片包含SK海力士制造的定制高带宽内存。能够以 2D 形式运行现有的 iOS 应用程序。

第三方蓝牙耳机显然不能很好地与耳机配合使用,并且存在太多滞后,并且设备上没有3.5mm耳机插孔。苹果一直专注于使最近和未来的AirPods型号在与耳机配对时具有低延迟。第二代AirPods Pro和耳机都包含H2芯片,据说配对在一起时可提供“超低延迟”模式。据称,苹果还讨论了AirPods是否应该强制进行耳机上的通信活动,以更好地保护隐私。

头显的早期原型使用大型外部电池,专为绑在佩戴者腰上的电动工具而设计,然后苹果将电池直接集成到头带中,如Meta Quest Pro。据报道,截至 2022 年,苹果将电源改回电池组,该电池组打算戴在用户的腰上,通过电缆连接到头带——这是苹果前设计主管乔尼·艾夫爵士倡导的设计。

虽然曾经有传言说头带可以像Apple Watch手环一样互换,但情况已不再如此,因为工程师面临着头带作为耳机电源管道的技术挑战。

据说苹果倾向于手部跟踪和语音识别来控制耳机,但它已经测试了“魔杖”和“手指顶针”作为替代控制输入方法。

预计耳机不会配备专用的游戏控制器,苹果似乎并没有将重点放在该设备的游戏上。话虽如此,该公司确实有一个计划,允许Unity成为其第一个通过其游戏引擎在头显中提供完整VR体验的合作伙伴。

苹果专注于设备上的视频会议,其数字化身在模仿用户的面部表情和身体动作时具有很高的准确性。它还创建了软件,允许用户执行诸如将地图应用程序从Mac屏幕上拖出并使用它来在桌面上显示城市的3D模型等活动,并将资源用于设备的教育资源。

该信息还重申了它之前披露的几个特征的存在,并独立证实了彭博社、日经亚洲和DigiTimes等消息来源强调的其他特征:

耳机正面有一个大型的外向显示屏。这可以向周围的人显示耳机佩戴者的面部表情,以减少使用设备时的孤立感。面向外部的显示屏具有超低刷新率和更低的功耗,就像Apple Watch和iPhone 14 Pro的常亮显示屏一样。每只眼睛的内置微型OLED显示屏具有4K分辨率,由索尼制造,整体形成8K图像。每只眼睛都由至少一个摄像头跟踪,使头戴式设备能够准确地显示用户对头像的注视。眼动追踪还使头戴显示设备能够执行注视点渲染,通过仅直接在用户注视的位置以全分辨率渲染图像来节省功耗。十几个摄像头和传感器可以捕捉面部表情和身体动作,包括用户的腿部。苹果在开发机器学习来实现这一点时,显然移除了摄像头来捕捉眉毛和下巴的运动。短距离和远程LiDAR扫描仪,用于绘制三维表面和距离。

该报告称,苹果供应商昌硕去年在上海附近的一家工厂组装了数千个原型头显,通过了多个原型阶段并进入工程验证测试。它补充说,该设备最初应该在2022年推出。

此外,据称苹果公司已经讨论过根据其配置将耳机定价在3,000美元左右或更高,据四位知情人士在接受The Information采访时说。

0

上一篇:

下一篇:

精彩评论

暂无评论...
验证码 换一张
取 消

最新问答

问答排行榜