失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > cnn识别不定长英文验证码

cnn识别不定长英文验证码

时间:2023-06-17 02:43:05

相关推荐

cnn识别不定长英文验证码

本程序作为一个基础版的CNN使用教程,以识别简单的英文验证码作为目标完成一个简单的实例。在这个实例中,我们会涉及到以下三步,并通过这三部曲来带大家体验深度学习的魅力。

仅2分,可直接运行的程序:/download/qq_32791307/10651274

1. 对数据的基本读取、处理并生成batch

2. 搭建简单的CNN模型

3. 训练并得出结果

一 . 数据处理

1. 首先我们需要先生成一批验证码,代码如下,十分简单。生成效果如图。名字为0B73.jpg

我们可以用程序生成大量的验证码作为样本。可以更改代码中for i in range(数字) 的数字来生成不同数量的样本。大小170*80

#coding=utf-8from captcha.image import ImageCaptchaimport matplotlib.pyplot as pltimport numpy as npimport randomfrom scipy.misc import imread,imresize,imsaveimport string#用于生成不同长度的训练集(3..6)/验证集characters=string.digits+string.ascii_uppercase+string.ascii_lowercasewidth,height,n_len,n_class=170,80,6,len(characters)generater=ImageCaptcha(width=width,height=height)dir=".\\train"for i in range(8000):#生成3,6位random_str="".join([random.choice(characters) for j in range(0,random.choice(range(3,6)))])#生成4位#random_str="".join([random.choice(characters) for j in range(0,4)])image=generater.generate_image(random_str)imsave(dir+"/"+random_str+".jpg",image)

2. 其次有了样本之后,我们需要对样本进行以下的操作。

第一步:获取图片和图片名称的代码,非常简单,注释如下。

def get_image_name():#获得目录下所有图片all_image = os.listdir('D:/tensorflow3_captcha/train/')#打散训练集random_file = random.randint(0,8000) #拓展名获取, eg: 123.txt 分为[0] 123 ,[1] txtbase = os.path.basename('D:/tensorflow_captcha/train/' + all_image[random_file])name = os.path.splitext(base)[0]#读取图片并转为灰度图image = cv2.imread('D:/tensorflow_captcha/train/' + all_image[random_file],cv2.IMREAD_GRAYSCALE)#cv2.imshow("tu",image)#cv2.waitKey(0)#print(name)return name,image

第二步:确定字母次序为0-9a-zA-Z得到字母对应位置标签. 如 a 对应标签为 11

#ord(c)随机给定一个无符号数,ord('0')=48#字符固定位置 def char2pos(c): if c =='_':k=62return kk= ord(c)-48# ord(c)为0-9时的位置#ord(c)为大写字母时的位置,因为0-9占了10位,所以是ord(c)-ord('A')+10=ord(c)-55if k > 9: #如ord('C')=67-55=12k = ord(c) - 55 #ord(c)为小写字母时的位置,0-z占了35位if k > 35: #ord('c')=99-61=38k = ord(c) - 61if k > 61:raise ValueError('No Map')return k

第三步:名字标签与one-hot编码的形式互相转换。(注:1,2,3对应one-hot示例 [ [0 ,1 ,0 ,0], [0 ,0 ,1 ,0], [0 ,0 ,0 ,1]])

#名字转向量标签def name2vec(name):vector = np.zeros(max_captcha*char_set)for i, c in enumerate(name): idx = i * char_set + char2pos(c)vector[idx] = 1return vector #return 不能忘!!导致loss = nan#print (vector);print(idx)#向量标签转名字,为了结果可以对应,也可以名字向量互转用字典代替。def vec2name(vec):char_pos = vec.nonzero()[0]name=[]for i, c in enumerate(char_pos):char_idx = c % char_setif char_idx < 10:char_code = char_idx + ord('0')elif char_idx < 36:char_code = char_idx - 10 + ord('A')elif char_idx < 62:char_code = char_idx- 36 + ord('a')elif char_idx == 62:char_code = ord('_')else:raise ValueError('error')name.append(chr(char_code))return "".join(name)

第四步:制作batch。(注:batch_size 一般大小为2的n次方,常用大小为32,64)

def get_next_batch(batch_size):batch_x = np.zeros([batch_size,image_height*image_width])batch_y = np.zeros([batch_size,max_captcha*char_set])for i in range(batch_size): #格式注意range,np.zeros([])name,image = get_image_name()batch_x[i,:] = image.flatten()/255batch_y[i,:] = name2vec(name)return batch_x,batch_y

二. 搭建简单的CNN模型

通常,我会将搭建过程分为前后两期,前期定义输入变量,定义weight、bias 、conv2d、max_pool等所需要的‘积木块’。后期开始堆积积木块。各大著名网络结构可以看为积木搭建的图纸,只要我们有安装图纸,前期只要定义好各类所需的‘积木块’,后期就可以按图索骥就好。本次只是简单的堆积了一个模型,大家也可以去体验更多的网络结构。下面,我们开始吧!

第一步:定义各类变量

X = tf.placeholder(tf.float32,[None,image_height*image_width])Y = tf.placeholder(tf.float32,[None,max_captcha*char_set])y_in = tf.sparse_placeholder(tf.int32)seq_length=tf.placeholder(tf.int32,[None])keep_prob = tf.placeholder(tf.float32) # dropout#这里的learn_rate比较详细,不麻烦的话也可以直接用learn_rate=0.0001作为学习速率global_step = tf.Variable(0, trainable=False)learn_rate = tf.train.exponential_decay(INITIAL_LEARNING_RATE,global_step,DECAY_STEPS,LEARNING_RATE_DECAY_FACTOR,staircase=True)#define weight biaesdef weight(shape):#tf.truncated_normal(shape, mean, stddev)initial = 0.01*tf.random_normal(shape)return tf.Variable(initial)def biases(shape):initial = 0.1*tf.random_normal(shape) #tf.constant(0.1,shape=shape)return tf.Variable(initial)#define conv and pool ,padding有'SAME'和'VALID'两种def conv2d(x,w):return tf.nn.conv2d(x,w,strides=[1,1,1,1],padding='SAME')def max_pool(x):#ksize是pool的窗口大小=[1,height,width,1]也就是卷积核大小;return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')#因为是2x2的池化,所以输出是池化一次就/2 ,和权重的卷积取多少无关

第二步:积木堆积,本次所用图片大小为80*170, 所以第一次的卷积输出为40*85

模仿的VGG16

def cnn(weight,biases):img_x = tf.reshape(X,[-1,image_height,image_width,1])#### conv layer 1 ####w_conv1 = weight([3,3,1,32]) #3X3的卷积核,第一层输出32b_conv1 = biases([32])h_conv1 = tf.nn.relu(conv2d(img_x,w_conv1)+b_conv1)h_pool1 = max_pool(h_conv1) #outsize = 40*85conv1 = tf.nn.dropout(h_pool1, keep_prob)#### conv layer 2 ####w_conv2 = weight([3,3,32,64]) #3X3的卷积核,第2层输出64b_conv2 = biases([64])h_conv2 = tf.nn.relu(conv2d(conv1,w_conv2)+b_conv2)h_pool2 = max_pool(h_conv2) #20,42.5conv2 = tf.nn.dropout(h_pool2, keep_prob)#### conv layer 3 ####w_conv3 = weight([3,3,64,64]) #3X3的卷积核,第2层输出64b_conv3 = biases([64])h_conv3 = tf.nn.relu(conv2d(conv2,w_conv3)+b_conv3)h_pool3 = max_pool(h_conv3)#10, 21.25--->10,22 conv3 = tf.nn.dropout(h_pool3, keep_prob) #### Fully connected layer 1 ####w_fc1 = weight([10*22*64,1024])b_fc1 = biases([1024])#h_pool3_flat = tf.reshape(h_pool3,[-1,10*22*64])h_pool3_flat = tf.reshape(conv3, [-1, w_fc1.get_shape().as_list()[0]])h_fc1 = tf.nn.relu(tf.matmul(h_pool3_flat,w_fc1)+b_fc1)#[64,1024]h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)#### out 输出特征 ####w_out = weight([1024,max_captcha*char_set])b_out = biases([max_captcha*char_set])#out用的sigmoid,loss对应sigmoid#out = [64,1024]*[1024,378]+378 =[64,378]out = tf.matmul(h_fc1_drop,w_out)+b_out #sigmoid ,注意行列顺序,HXWreturn out , h_fc1

三. 训练并验证

1. 开始训练前容易犯的错误是没有初始化变量。

2.sess.close不加也可以,但是加上是个好习惯。

3.其实也可以单独定义 loss,accuracy。

4.及时使用tf.train.Saver()来储存模型。这样可以多次训练模型。用saver.restore即可快速恢复训练。

def train_cnn():output, conv_3 = cnn(weight,biases) #output 64*378#loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=output,labels=Y))loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=output, labels=Y))train_step = tf.train.AdamOptimizer(0.001).minimize(loss)predict = tf.reshape(output,[-1,max_captcha,char_set])label = tf.reshape(Y,[-1,max_captcha,char_set])#print(label,'\n',predict)max_idx_pre = tf.argmax(predict,2) #沿char_set找最大值索引即63个里最大的。max_idx_lab = tf.argmax(label,2)accuracy = tf.metrics.accuracy(labels=max_idx_lab,predictions=max_idx_pre) #tuplesaver = tf.train.Saver()sess = tf.Session()init_op = tf.group(tf.global_variables_initializer(), tf.local_variables_initializer()) # the local var is for accuracy_opsess.run(init_op)step = 0while True: ######需要恢复模型,继续训练时可使用以下注释部分#model_file=tf.train.latest_checkpoint('model/')#saver.restore(sess,model_file )batch_x,batch_y = get_next_batch(64)_,loss_ ,out= sess.run([train_step,loss,output] ,feed_dict={X:batch_x,Y:batch_y,keep_prob: 0.6})#print('step:',step)#print(out.shape)if step%100 == 0:batch_x_test,batch_y_test = get_next_batch(64)acc = sess.run(accuracy,feed_dict={X:batch_x_test,Y:batch_y_test, keep_prob: 1.})[1]print('train loss: ' , loss_,'train acc: ', acc)if acc > 0.8 :saver.save(sess,"model/my_captcha.ckpt", global_step=step)break step += 1sess.close()train_cnn()

四. 训练过程中可能出现的问题

1. 训练的 Loss和Acc 可能值会上下波动,这是正常现象,只要整体Loss趋势变小,Acc变大即可

2. 训练时间需要长一些,因为样本比较复杂,且没预处理,请耐心等待。

3. 如果训练很长时间测试的Acc却达不到很高的水平,可以尝试增加样本数量。

如果觉得《cnn识别不定长英文验证码》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。