强大的对象分割开源算法!Meta AI开源Segment Anything: Working(SAM)预训练大模型!
SAM全称是Segment Anything Model,由MetaAI最新发布的一个图像分割领域的预训练模型。该模型十分强大,并且有类似GPT那种基于Prompt的工作能力,在图像分割任务上展示了强大的能力!此外,该模型从数据集到训练代码和预训练结果完全开源!真Open的AI!
Segment Anything Model的模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/SAM
下图就是在线演示系统中,从草丛中分割出小狗的效果

可以看到效果十分逼真。我自己也上传了一张图片,把黑色眼镜完整从黑色键盘背景中分割出来了!

效果太惊艳了!
在自然语言处理和最近的计算机视觉领域,基础模型是一个有前途的发展方向,它通常可以通过使用“提示”技术对新的数据集和任务进行零-shot和少量样本学习。但是,这样的工作方式目前很少运用在CV领域。而MetaAI试图提出可提升的分割任务( promptable segmentation)。SAM就是这样的产物。
最重要的是SAM完全开源!这也是继MetaAI贡献的LLaMA之后又一个十分卓越的开源贡献!很快,各种新的分割应用应该就会出现了!
目前,SAM开源了3个模型,即 vit_h、vit_l和vit_b,最后一个是最大的结果!
SAM官方博客地址: https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/
SAMGitHub项目开源地址: https://github.com/facebookresearch/segment-anything
SAM在线演示地址: https://segment-anything.com/demo#
SAM数据集地址: https://segment-anything.com/dataset/index.html
SAM论文地址: https://scontent-sjc3-1.xx.fbcdn.net/v/t39.2365-6/10000000_900554171201033_1602411987825904100_n.pdf
欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
