4月5日,Facebook母公司Meta在推特宣布推出SAM模型(Segment Anything Model)并开源。该模型能够查找和分割图像和视频中的任何对象,实现一键抠图。同日,Meta还发布了自称有史以来最大的图像注释数据集,以及30页详解论文《Segment Anything》。
11 亿 + 掩码数据集可提取!
Meta研发团队在官网上发布了关于Segment Anything的论文细节。
唐宇迪博士也用视频讲解了这个论文和代码
有需要视频和论文代码可以关注公众H:咕泡AI 回复 211 获取
白嫖60G入门到进阶AI资源包(经典论文/书籍/项目课程/学习路线大纲)+带论文/学习/就业/竞赛指导+大牛技术问题答疑
内含:深度学习神经网络+CV计算机视觉学习(两大框架pytorch/tensorflow+源码课件笔记)+NLP等
适用人群
①准备毕业论文的学生
②准备跳槽,正在找工作的AI算法工程师等
③自学和准备转行到AI领域的人
④想巩固AI核心知识,查漏补缺的人
本文链接:https://my.lmcjl.com/post/5860.html
展开阅读全文
4 评论