近日,知名分析师马克・古尔曼在一档科技播客节目中透露,苹果公司正加速推进智能眼镜项目,计划在未来12至16个月内推出首款无显示屏设计的智能眼镜产品。这款设备将直接对标meta旗下Ray-Bans智能眼镜,主打轻量化与生态协同优势,但需依赖iPhone完成核心数据处理。
据古尔曼介绍,苹果首款智能眼镜将摒弃传统显示屏设计,转而通过内置摄像头与音频系统实现基础功能。用户可通过镜腿上的触控模块操作拍照、录音及播放音频,但所有数据处理均需通过iPhone完成。这种设计源于苹果对设备便携性的极致追求——研发团队正全力攻克微型化技术,力求将产品重量控制在普通眼镜水平,避免重蹈Apple Vision Pro因厚重设计导致的体验局限。
关于产品发布时间,古尔曼重申了此前分析师郭明錤的预测:苹果智能眼镜大概率于2026年面世,但技术优化进度可能使其推迟至2027年。他强调,当前研发瓶颈集中在传感器集成与续航优化,苹果需在功能完整性与佩戴舒适性间找到平衡点。
在市场竞争层面,苹果的生态优势成为关键筹码。古尔曼指出,凭借iPhone用户对苹果生态的高度粘性,智能眼镜可快速融入现有产品矩阵。更关键的是,苹果能实现硬件与iOS系统的深度整合,而meta等竞争对手在推动跨平台兼容时仍面临技术障碍。例如,meta智能眼镜与iPhone的适配需突破系统权限限制,而苹果产品则可无缝调用Siri、iCloud等原生服务。
值得关注的是,苹果的研发管线中还存在另一款潜在颠覆性产品——内置摄像头的AirPods。据供应链消息,这款升级版耳机将搭载红外感应摄像头,可实时分析用户所处环境,并将视频流传输至iPhone及苹果AI系统。结合其现有的主动降噪与空间音频技术,新款AirPods或能实现智能眼镜的核心功能,同时保持更隐蔽的佩戴形态。
行业分析师认为,苹果正通过多设备协同构建差异化竞争力。未来,配备摄像头的AirPods可与智能眼镜形成互补:前者负责环境感知与音频交互,后者承担基础显示功能,二者数据共享将大幅提升Apple Intelligence的场景理解能力。这种“双设备”策略既能降低单款产品的技术门槛,又能通过功能拆分实现体验升级,或成为苹果穿戴设备的新范式。