天天看点

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

>>戳此处立即下载电子书<< ,学习全套目标检测算法&模型

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

目标检测的产业应用实践

前三章节,具体讲解了目标检测的技术应用,技术如何和产业相结合,发挥出最大的价值,也是我们最为关注的。

在经济稳预期的形势下,国内制造业企业正在加快转型升级的步伐。阿里作为一家有情怀和使命感的科技公司,我们希望通过技术手段来帮助传统企业实现转型升级。正泰新能源与阿里合作引入人工智能图像技术进入生产车间,其无人质检生产线目前已使用将近一年时间,成为了生产制造的重要力量。

在光伏行业,质检环节长期面临专业度高、招工难、人力不足等问题。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

工业自动化水平较高的德国曾推出过组件EL 质检技术,但只针对典型缺陷,仅能做到辅助人工(无法替代人工)。在国内,光伏企业在智能AI 识别技术领域做了近10 年的尝试,但多晶电池和组件的自动质检远未达到工业生产水平。

阿里巴巴利用AI 技术,实现了

全球第一个

可代替人工的多晶电池和组件EL 质检产品。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

在应用AI 检测之前,这个质检环节需要熟练员工一片一片地对着屏幕去判断电池片好还是不好,同时要拿手柄去确认,视觉疲劳、会导致准确率的下降,同时要培养这样一个熟练员工,基本上要3 个月的时间。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】
目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

多晶电池片之所以难,是因为电池片本身有很多暗纹,这些暗纹和某些瑕疵在图像特征上比较相似,而且瑕疵本身的大小、长宽比、类间距等也很大,因此在算法上有着非常大的挑战。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

在单晶、多晶电池片质检在线上稳定运行半年后,阿里推出单晶、多晶组件EL质检功能,目前已在产线运行且精度稳定在95% 以上。组件由6×10/6×12 块电池组成,因此只要有一个地方识别错误,整张组件便识别错误,因此其识别难度远大于电池片。组件95% 以上的精度意味着单张电池片的识别精度要求远远超过99%。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

正泰新能源在应用阿里的AI 检测之后,在“降本增效”上已经有了非常明显的优势。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

阿里云未来将与更多的企业联合,书写智能制造新篇章。

目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

附录

[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

[2] Girshick R. Fast r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2015: 1440-1448.

[3] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[C]//Advances in neural information processing systems. 2015: 91-99.

[4] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector[C]//European conference on computer vision. Springer, Cham, 2016: 21-37.

[5] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 779-788.

[6] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[J]. arXiv preprint, 2017.

[7] Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

[8] Dai J, Li Y, He K, et al. R-fcn: Object detection via region-based fully convolutional networks[C]//Advances in neural information processing systems. 2016: 379-387.

[9] Fei-Fei Li, Justin Johnson, Serena Yeung et al. CS231n: Convolutional Neural Networks for Visual Recognition

[10] Cheng M M, Zhang Z, Lin W Y, et al. BING: Binarized normed gradients for objectness estimation at 300fps[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 3286-3293.

[11] Uijlings J R R, Van De Sande K E A, Gevers T, et al. Selective search for object recognition[J]. International journal of computer vision, 2013, 104(2): 154-171.

[12] Endres I, Hoiem D. Category independent object proposals[C]//European Conference on Computer Vision. Springer, Berlin, Heidelberg, 2010: 575-588.

[13] Law H, Deng J. Cornernet: Detecting objects as paired keypoints[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 734-750.

[14] Xin Lu, Buyu Li, Yuxin Yue, Quanquan Li, Junjie Yan Grid R-CNN arXiv preprint, 2018.

继续阅读