欧阳女士
5秒内自动完成?我看到搬家了。BG这个工件
来源:高在珍     发布时间: 2019-05-05      浏览次数:199

字号:

    原标题:5秒实现自动消光?我看过Re..bg,一个神器,雷锋。com人工智能技术评论:这是为了简吗?

    原标题:5秒实现自动消光?我看到搬家了。BG这个工件

    雷锋的人工智能科技评论:为了简化垫子的功能,你还在努力研究Photoshop吗?即使实践是成功的,您认为解决这个问题仍然需要花费太多的时间吗?现在,一个名为..bg的工具可以减轻您的烦恼,只要您上传照片并单击确认,您就可以在5秒内获得透明且无背景的主题照片,并且完全免费使用。

    bg是由byteq开发人员Benjamin Groessing开发的一个基于Python、Ruby和深度学习的工具。它通过人工智能技术自动识别前景层,然后与背景层分离。为了提高分割的细节效果,防止“混色”,研究小组还特别增加了相关算法。

    然而,本杰明·格罗斯也强调删除Twitter。BG目前只能用于肖像照片,基于用户反馈的其他更复杂的主题识别功能将在未来继续改进。

    目前,该网站免费开放。不管你是专业设计师还是新手,都可以上传照片,实现自动铺垫,无需选择、标记和一系列繁琐的日常操作。然而,雷锋的《人工智能技术评论》提醒您,该网站在上传照片的大小和输出照片的像素方面存在限制。上传照片的尺寸不能超过8M,输出照片的像素只能是500px。如果对最终映射质量有很高的要求,我建议您仍然选择Photoshop。

    在展示网站的试用效果之前,雷锋的《人工智能科学技术评论》首先简要介绍了该项目的评价标准。

    如何处理人们手中的物品

    深色/亮色的衣服可以用作背景吗?

    光照不足下的识别效果

    炉渣像素图像的识别效果

    会有一个令人困惑的“洞”吗?

    这些标准主要是指Gidi Sheperber在GreenScreen所做的相同质量的工作。人工智能,是由人工智能科学评论在去年介绍的。我们想知道在过去的一年里,面对同样的问题,我们的技术是否已经改进了。

    1)如何处理人民持有的物品

    我们可以看到,当面对与人体相连的大面积物体时,系统会将这些物体视为人体的一部分和前景图。

    当面对与人类手较少连接的对象时,它们被作为背景图像去除。

    2)深色/明亮的衣服会用作背景吗?

    因为背景颜色和人物衣服的颜色相似,所以系统把它们看成是人体的一部分,比如右哥的背包,而把人物的一些衣服看成是背景的一部分,比如右哥的帽子。

    由于背景颜色和字符的磨损颜色是分离的,所以最终的识别结果更好。然而,仍然存在一种现象,即背景和人体粘附在一起的范围很小,主要集中在人体与人体之间的间隙。

    3)光照不足时的识别效果

    最终的识别效果还不错,但再次把与人体相连的大面积对象看作一张前景图(枕头),这似乎与团队背后的算法设置有一定的关系;

    左边光线的缺乏使得这些字符被当作背景图像。令人惊讶的是,右边的图案有很好的消光效果,尽管一部分背景被认为是人体的一部分。

    4)炉渣像素图像的识别效果

    用105×186像元再次验证了“大面积连接人体的物体视为人体的一部分”的规律。此外,“人体与人体之间的间隙被视为人体的一部分”的问题又重新出现。

    所选择的照片像素是185x185,暂时没有人可以选择。

    5)会有一个令人困惑的“洞”吗?

    与去年吉迪·谢珀伯的作品性质相同,她发现一些原本应该很好看的剪裁结果和挖洞很相似。在这方面,AI Technology Review在使用..bg的过程中没有发现类似的情况。

    总结

    目前看来,人体与人体之间的鸿沟很容易被看作一幅前景图。此外,只要..bg默认映射中的对象在很大的区域内与人体相连,它们将被视为前景映射。将来,我们可以考虑开放选项,让用户自己选择。毕竟,有时他们只是需要被略读的人。

    就优点而言,只要图像的背景颜色不太接近人体颜色,在去除bg时,在弱光和低像素消光性能方面仍然令人满意。重点在于删除的响应速度。BG。上传每张照片以产生最终结果。人工智能技术评论的经验是每张照片不超过5秒钟。虽然最终的边缘绘制效果不是很好,但是对于一般用户来说已经足够了。

    吉迪·谢伯的相关工作

    Gidi Sheperber的工作只不过是朋友之间的一个有趣的实验。她和她的朋友Alon Burg花了几个月的时间试图使用语义分割技术和Tiramisu模型基于COC数据集来构建一个席子模型。最后,基于以上工作,总结了数据选择和模型训练中存在的诸多问题,并提出了相应的改进方法,具有一定的启发意义。

    例如,在模型的训练中,由于人像和自拍图像前景突出、集中,并且能够保持相对稳定的角度,从而有利于最终的图像切割效果,因此它们锁定了人像和自拍图像的范围。所以不难理解为什么要删除。BG目前只提供肖像垫服务。

    在选择模型时,他们采用了Tiramisu,它有非常深的编解码结构。这是因为模型紧凑,计算速度快。同时,结合了Unet在实现上的优点,最终的结果并不令他们失望,尤其是在图像的尖锐边缘的捕获方面。

    提拉米苏总建筑

    数据集的选择也是一个选择的问题,他们最终确定了包含最“人”图像的COCO数据集。基于时间和模型的集中度,他们决定选择数据集中最相关的部分,并放弃更通用的数据集。这样做的优点是,最终的训练模型将非常集中,但是面对更多的场景和更具挑战性的图像,模型的性能可能会受到影响。

    下面是吉迪·谢泼伯和朋友们的一些作品。

    最后的切割结果。从左到右依次为:图像、真实数据、输出结果(来自测试集)

    在这个过程中,他们发现除了对可能的代码错误进行正常的调试之外,模型错误也是“可预测的”。例如,“切割”身体部位超出躯干的正常范围,不必要的躯干延长,光线不足,低质量的照片和太多的细节的照片。当添加来自不同数据集的特定图像时,其中一些被移除,但是其他的仍然是有待解决的挑战。这些被雷锋的AI技术评论总结为测试去除效果的五个标准。BG抠图。

    最后,Gidi Sheperber也提出了改进工作的建议,比如在训练数据中使用高分辨率图像,使用CRF改善图像边缘噪声,以及继续关注Matting技术的最新进展。

    最后,由于实验涉及不同的技术、模型、数据类型、数据量和训练方法,因此本文借鉴了Gidi Sheperber的作品作为..bg的评价标准,存在偏差。毕竟,..bg背后的算法逻辑尚未公开。无论如何,我们相信类似的工作也可以互相学习。感兴趣的学生可以点击“自定时映射裁剪到软”?解释如何通过深入学习消除背景。参见有关Gidi Sheperber去年工作的更多细节。

  • 相关内容: