智能眼镜既然都戴在脸上了,产品的核心就在于能跟人类一样看到物理世界。然而,目前的AI智能眼镜(如Ray-Ban Meta)大多只通过RGB摄像头让大模型看到画面。问题是RGB画面缺乏绝对的物理尺度。大模型知道画面里有一个杯子,但无法判断杯子距离用户是30厘米还是80厘米。此时,如果纯靠视觉算法去反推空间深度,需要持续压榨NPU或GPU的算力,这对于电池容量只有一两百毫安时的智能眼镜来说,后果可能是...
网页链接智能眼镜既然都戴在脸上了,产品的核心就在于能跟人类一样看到物理世界。然而,目前的AI智能眼镜(如Ray-Ban Meta)大多只通过RGB摄像头让大模型看到画面。问题是RGB画面缺乏绝对的物理尺度。大模型知道画面里有一个杯子,但无法判断杯子距离用户是30厘米还是80厘米。此时,如果纯靠视觉算法去反推空间深度,需要持续压榨NPU或GPU的算力,这对于电池容量只有一两百毫安时的智能眼镜来说,后果可能是...
网页链接
精彩评论