分享

GitHub 又一图像标注神器问世,代号「EISeg」!

 西北望msm66g9f 2021-09-13

图片

在人工智能行业有这么一句话:“深度学习有多智能、背后就有多少人工”。这句话直接说出了深度学习从业者心中的痛处,毕竟模型的好坏数据占着很大的因素,但是数据的标注成本却让很多从业者感到头疼。在标注中,矩形框标注还相对简单,但是对于像素级别的分割标注,往往需要大量的点将目标轮廓抠出来,这需要大量的时间和人力成本去完成。

为了降低传统标注方式的人工成本、实现像素级目标标注的自动化,近期 PaddleSeg 团队联合 PPSIG (飞桨特殊兴趣小组)Models-CV 小组韩霖、陈奕舟两位 SIG 成员打造了业界首个高性能的交互式分割自动标注工具 —EISeg

什么是交互式分割呢?它其实就是先用预训练模型对图像进行预标注,对于标注不精准、有误差的地方,再通过一系列绿色点(正点)和红色点(负点)对目标对象边缘进行精准的调整,从而实现精细化标注,高效而实用。

图片

详细的产品体验链接,请参考:

https://github.com/PaddlePaddle/PaddleSeg/tree/release/2.2/contrib/EISeg

图片

当然大家会好奇,交互式分割算法是怎么实现的?在这里和大家介绍一下:

交互式分割以用户的标注作为指导信息,根据用户的需求选取所需的前景或物体区域,并通过多次交互的方式得到灵活的标注结果,为图片标注提供了一种半自动化标注策略。与语义分割相比,交互式分割不仅仅需要传入图片和标签,还需要输入交互信息来进行训练。


图片图片


为了给大家带来更好的标注体验,开发团队在多个模型上不断尝试如何获取高精度的标注结果。经过大量测试发现,HRNet+OCRNet 模型结构能够更好的将交互点击信息传入到深层的特征中,并且保留分割结果的细节信息,从而使模型对交互信息的反应更精确、更灵活。

值得一提的是:为了同时保证模型的高精度和轻量化,EISeg 的交互式分割算法采用 HRNet18 和 NRNet18-Small 两种 Backbone,而 OCRNet 的通道也可以进行不同数量的配置,得到计算量大小不同的模型,更好的满足用户不同场景的需求。

图片模型结构图

当然 EISeg 提供的不仅有预训练算法和交互式分割操作方式,更多功能,下面逐一为大家揭晓!

支持多种图像及标注格式满足多种视觉任务

EISeg 不仅仅支持输出 mask 掩膜输出,还支持多边形等多种标注生成。同时支持伪彩色图、灰度图,以及 json、coco 等数据格式,用户还可对角点进行增删和局部修正。这样标注出来的数据,不仅仅可以做语义分割,还可以用做实例分割任务,一举两得!!!

图片

超多人性化操作快捷键让标注效率一提再提!

为了进一步提高标注效率,EISeg 提供了超多人性化设计的快捷键:

图片

那到底标注效率有多快呢?我们具体来做个测试

图片

👆 传统方法 1 分 7 秒

图片

👆 EISeg 9 秒

可以看到,传统方法使用的标注时间是 1 分 07 秒,EISeg 使用的只有 9 秒!使用的时间是传统方式的 1/7 还不到!EISeg 的交互式分割模型的标注效率是远远超过传统标注的!

丰富的标注模型适合多种场景

EISeg 开放了在 COCO+LVIS 和大规模人像数据上训练的四个标注模型,满足通用场景和人像场景的标注需求。其中模型结构对应 EISeg 交互工具中的网络选择模块,用户需要根据自己的场景需求选择不同的网络结构和加载参数。

图片

另外,为了更好的满足用户分割场景的多样性,PaddleSeg 团队还在持续建设其他垂类领域的交互式模型,例如医疗和遥感图像标注。期待有相关需求的开发者们一起参与开源共建中来!

图片

心动不如行动,大家可以直接前往 GitHub 地址获得完整开源项目代码,记得 Star 收藏支持一下哦:

https://github.com/PaddlePaddle/PaddleSeg

有小伙伴使用过 EISeg 后表示 “救了眼睛一命,省下不少时间!”,这么好用的开源自动标注工具还不叫上你的好朋友来体验一下!

除此之外,百度飞桨开发者说邀请到了 EISeg 的开发团队成员韩霖为大家带来一场专题直播,与大家共同交流 EISeg 强大的标注功能和实现原理!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多