投稿指南
一、稿件要求: 1、稿件内容应该是与某一计算机类具体产品紧密相关的新闻评论、购买体验、性能详析等文章。要求稿件论点中立,论述详实,能够对读者的购买起到指导作用。文章体裁不限,字数不限。 2、稿件建议采用纯文本格式(*.txt)。如果是文本文件,请注明插图位置。插图应清晰可辨,可保存为*.jpg、*.gif格式。如使用word等编辑的文本,建议不要将图片直接嵌在word文件中,而将插图另存,并注明插图位置。 3、如果用电子邮件投稿,最好压缩后发送。 4、请使用中文的标点符号。例如句号为。而不是.。 5、来稿请注明作者署名(真实姓名、笔名)、详细地址、邮编、联系电话、E-mail地址等,以便联系。 6、我们保留对稿件的增删权。 7、我们对有一稿多投、剽窃或抄袭行为者,将保留追究由此引起的法律、经济责任的权利。 二、投稿方式: 1、 请使用电子邮件方式投递稿件。 2、 编译的稿件,请注明出处并附带原文。 3、 请按稿件内容投递到相关编辑信箱 三、稿件著作权: 1、 投稿人保证其向我方所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我方所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我方所投之作品不得同时向第三方投送,即不允许一稿多投。若投稿人有违反该款约定的行为,则我方有权不向投稿人支付报酬。但我方在收到投稿人所投作品10日内未作出采用通知的除外。 5、 投稿人授予我方享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 投稿人委托我方声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

基于改进的山西传统民居门窗识别方法研究

来源:山西化工 【在线投稿】 栏目:期刊导读 时间:2021-03-02
作者:网站采编
关键词:
摘要:引言 将深度学习技术应用于目标检测领域是近年来突飞猛进的目标检测方法[1],在众多领域均得到了长足的发展。本文提出将图像识别技术用于传统民居门窗信息提取的数字遗产保护方

引言

将深度学习技术应用于目标检测领域是近年来突飞猛进的目标检测方法[1],在众多领域均得到了长足的发展。本文提出将图像识别技术用于传统民居门窗信息提取的数字遗产保护方法,以期全方位提升对历史建筑的保护力度。门窗属于传统民居各部分组成构件中图像特征相对明显、简单且数量最多的一部分单元构件,因此选取门窗这一传统民居构件进行传统民居识别初探。

1 卷积神经网络及其改进研究现状

Girshick 等人[2]基于卷积神经网络提出了R-CNN(Region-Conventional Neural Network)目标检测模型。这种模型基于传统机器学习与深度学习原理,借助卷积神经网络提取目标特征,继而再使用SVM(Support Vector Machine)进行分类,最后得到的mAP(mean Average Precision)值相对于传统识别方法有了很大的提升。后续人们又先后提出了新的目标检测算法:Fast R-CNN、Faster R-CNN、YOLO(You Only Look Once)和SSD(Single Shot MultiBox Detector)等[3]。在这些新兴检测算法中,YOLO以网络结构简单、检测速度快等优势深受推崇。

图1 YOLO 目标检测原理(图片来源:作者自绘)

关于对YOLOv2 神经网络的改进,李珣等提出改变激活函数与初始学习率;白中浩等[4]提出使用交叉熵函数替代sigmoid 激活函数与采用自组织数据分析算法进行聚类;宋建国等[5]提出将K-means 算法改进为DA-DBSCAN 算法等。以上改进措施大多是针对YOLOv2 算法进行的优化改进,对网络结构本身的调整不大,且识别对象大多为车辆、墙体裂缝、植物茎叶[6]等,未涉及到传统民居门窗范畴。

综上,针对现有传统民居识别研究缺乏的现状,本文提出了一种基于改进YOLOv2 网络模型的山西传统民居典型门窗图像识别算法,通过使用不同改进模型对门窗样本集进行训练后识别效果的对比,获得了适用于传统民居门窗识别的改进模型YOLOv2-TDDWNet(Traditional Dwelling Door & Window Net)。

2 基于改进YOLOv2 民居门窗目标检测算法设计

2.1 基于YOLOv2 的目标检测算法

YOLO(You Only Look Once)是Redmon J等[7]于2016 年提出的一种端到端实时目标检测网络,其基本原理如图1 所示。

当图像被输入YOLOv2 之后,其分辨率会被调整为448×448dpi,接下来网络将图像划分为S×S 个网格,这S×S 个网格就是YOLOv2来学习预测目标的基础。如图2 所示,输入的目标猫的中心位于整幅图片中上方的一个红色网格中,那么这个网络就担负起预测猫位置的任务。而每个黑色网格的任务是预测边界框(Bounding Box,BBox)。若目标检测任务需要检测多个类别,则每个网格负责多个条件概率Pr(Classi丨Object)。每个BBox 由四个坐标点信息(X,Y,W,H)和一个置信度c(ConfidenceScore))组成,其中,(X,Y)是目标中心相对于当前网格位置的偏移量,(W,H)为BBox 相对于整个图像的宽和高,最后这四个值将被归一化到区间[0,1]之间。置信度c 包括两层信息,一是目标Pr(Object)是否出现在当前网格;二是该网格预测目标的准确性如何,置信度c 可以通过公式1 计算[8]。

公式1 中,表示预测物体位置的准确性,简称交并比。如图3 所示,truth 表示实际框,pred 表示预测框,二者的交集与它们的并集之比也就是预测框与实际框两个矩形框的交集与并集之比即为交并比[9]。直观理解为,若预测框与实际框重合,即代表网格中包含目标,则为1,否则为0。IOU 公式如式2 所示。

每个BBOx 的最终得分G 由公式3 得到。

YOLOv2 共预测S×S×B 个BBox,根据识别要求设置一个阈值thresh,网络会自动把低于阈值的BBox 剔除,对剩余BBox 做非极大值抑制(Non-maximum suppression,NMS)处理,这样我们就得到了最后想要的检测结果。在多方面领先于其他卷积神经网络,YOLOv2 是当前图像识别深度学习的首选工具,其适用范围也可完美解决不同种类门窗检测与识别的功用。

2.2 基于YOLOv2 目标检测识别模型的改进

图2 目标猫预测(图片来源:作者自绘)

图3 IOU 交并比示意图(图片来源:作者自绘)

图4 Model 1-3 神经网络示意图(图片来源:作者自绘)

表1 三种模型中的卷积层、BN 层数目(表格来源:作者自绘)?

图5 数据集截图(图片来源:作者自摄)

图6 Model 1-3 训练过程平均损失变化曲线图(图片来源:作者自绘)

图7 三种模型IOU 曲线图(图片来源:作者自绘)

文章来源:《山西化工》 网址: http://www.sxhgzz.cn/qikandaodu/2021/0302/758.html



上一篇:露天煤矿地下采空区勘查方法与稳定性评价以山
下一篇:山西省吕梁市查拳保护与传承现状调查研究

山西化工投稿 | 山西化工编辑部| 山西化工版面费 | 山西化工论文发表 | 山西化工最新目录
Copyright © 2018 《山西化工》杂志社 版权所有
投稿电话: 投稿邮箱: