,香港科技大学团队开发出一款名为 Semantic-SAM 的图像分割 AI 模型,相比 Meta 此前发布的 SAM 模型,Semantic-SAM 具有更强的粒度和语义功能,能够在不同粒度级别上分割和识别物体,并为分割出的实体提供语义标签。
据悉,Semantic-SAM 基于 Mask DINO 框架进行开发,其模型结构主要改进在 decoder 部分,同时支持通用分割和交互式分割。
研究团队通过采用解耦的物体分类和部件分类方法,学习物体和部件的语义信息,从而实现了多粒度分割任务和交互分割任务的优化。实验结果表明,Semantic-SAM 在分割质量和粒度可控性方面优于 Meta 的 SAM 模型。
该项目目前已经在 GitHub 中发布,论文也同时上传至 ArXiv 中,有兴趣的IT之家小伙伴们可以前往查看。
广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。