程序员深夜用Python跑神经网络,只为用中二动作关掉台灯

在今天的文章里,我将手把手教大家训练一个神经网络模型,用来识别摄像头拍下的“舞步”,从而控制灯的开关。 2019-07-24 15:58:47 程序员技能开发者 服务器挤爆!用GAN生成人像油画火了,带你一秒回到文艺复兴 MIT和IBM沃森联合实验室,发布了这只画师,名叫AI Portraits Ars,可以在线玩耍。但由于生成的画像过于形神兼备,上线即遭网友大规模涌入,不到三天服务器就崩坏了。

在今天的文章里,我将手把手教大家训练一个神经网络模型,用来识别摄像头拍下的“舞步”,从而控制灯的开关。

[[271670]]

对于上了床就再也不想下来的人来说,关灯成为睡觉前面临的最大挑战!

然而这一届网友永远不会让人失望,他们开发出了各种关灯大法:

[[271671]]
[[271672]]

当然少不了憨豆先生最简单粗暴的关灯方式:

程序员深夜用Python跑神经网络,只为用中二动作关掉台灯

然而,一个来自意大利拉不勒斯的小哥哥,决定利用“舞步”(身体姿势)来控制自己家的灯,整个过程利用一个神经网络实现,就像这样:

[[271673]]
[[271674]]

下面是小哥哥写的教程,文摘菌在不改变原意的基础上进行了编译。

在今天的文章里,我将手把手教大家训练一个神经网络模型,用来识别摄像头拍下的“舞步”,从而控制灯的开关。

我们将在已有的OpenPose深度学习模型之上建立我们自己的模型来识别身体的位置,然后,我们会建立一些样本来代表各种身体的各种姿态。

当我们建立好舞步(包括嘻哈超人舞步、T-Pose舞步)和其他身体姿态的样本后,我们会清理数据集,然后利用这些样例训练我们的神经网络。

当神经网络训练好之后,我们会用它来控制灯光。

今天的文章包括很多步骤,不过,所有的代码都在Github上,上面还包括了我已经搜集到的原始数据样例。

GitHub链接:

https://github.com/burningion/dab-and-tpose-controlled-lights

编写“编写软件”的软件:怎样训练你的神经网络?

[[271675]]

首先就是数据——大量数据。

我们今天即将采用的神经网络模型卡内基梅隆大学的团队也曾经使用过,他们用自己的全景数据集来训练该模型。该数据集包括五个半小时的视频,视频中包含了150万个手动添加的代表人体骨骼位置的标签。

整个全景工作室的圆屋顶上装有500个摄像头,所有摄像头都对准人,从不同角度记录他们的动作。

这个全景工作室用构造训练数据集几乎是完美的,很方便进行计算机视觉的实验。

[[271676]]

今天,我们将在他们的工作基础之上开始我们的工作。

首先我们会用他们的工具来创建一个很小的数据集。我们最终的神经网络只会使用171个姿态,包括记录的嘻哈超人舞步、T-Pose舞步和其他姿态。每一个姿态样例都是从卡耐基梅隆大学已有的工作中提取出来的。

神经网络的一个好处就是你可以使用别人已经建成的模型,然后加入一些新的神经网络层,以此来扩展该模型。这个过程被称之为迁移学习,因此我们可以用有限的资源来进行迁移学习。

从技术上来说,我们不会在这个项目中使用迁移学习,因为我们会对OpenPose的工作做一些细微的修改,然后创建一个独立的神经网络。

那么问题来了,我们该如何获取数据呢?

写一个程序并利用OpenCV来收集带标签的数据

使用OpenPose的成果,我们得到了25个代表人体骨骼架构的标签。我们可以写一个程序来控制网络摄像头,在图像上运行OpenPose,然后将动作与键盘上的按键相对应。

[[271677]]

也就是说,我们做出一个T-Pose的动作,然后在键盘上点击m键,那么这个动作就被归到T-Pose那一类里。我们按照这个方法去添加171个不同的姿势,这样一来,我们就有数据训练神经网络了。以下是用于数据收集的代码的示例:

  1. #createlistsfordab,tpose,otherexamplesdabs=[]tposes=[]other=[]fps_time=0#loopforever,readingwebcameachtimewhileTrue:ret_val,frame=vs.read()datum.cvInputData=frameopWrapper.emplaceAndPop([datum])#needtobeabletoseewhat'sgoingonimage=datum.cvOutputDatacv2.putText(image,"FPS:%f"%(1.0/(time.time()-fps_time)),(10,10),cv2.FONT_HERSHEY_SIMPLEX,0.5,(0,255,0),2)cv2.imshow("Openpose",image)fps_time=time.time()#quitwithaqkeypress,bormtosavedatakey=cv2.waitKey(1)&0xFFifkey==ord("q"):breakelifkey==ord("b"):print("Dab:"+str(datum.poseKeypoints))dabs.append(datum.poseKeypoints[0])elifkey==ord("m"):print("TPose:"+str(datum.poseKeypoints))tposes.append(datum.poseKeypoints[0])elifkey==ord("/"):print("Other:"+str(datum.poseKeypoints))other.append(datum.poseKeypoints[0])#writeourdataasnumpybinaryfiles#foranalysislaterdabs=np.asarray(dabs)tposes=np.asarray(tposes)other=np.asarray(other)np.save('dabs.npy',dabs)np.save('tposes.npy',tposes)np.save('other.npy',other)

然后用NumPy的数组来储存特征,并用np.save函数把特征保存为二进制文件以便后续使用。我个人倾向于使用Jupyter notebook来观察和处理数据。

当数据收集好之后,我们可以观察并清理数据以便更好地去训练模型。

观察数据、清理数据以及使用数据训练模型

这部分看上去很复杂,但是通过使用Jupyter notebook、NumPy和Keras,我们就可以很直观地去观察数据、清理数据,并且使用数据来训练神经网络。

程序员深夜用Python跑神经网络,只为用中二动作关掉台灯

根据我们的截图,我们可以发现npy文件中保存的数据和OpenPose模型本身都有三个维度,25个已知的身体位置坐标点,X、Y、以及Confidence。

我们的模型训练工作不需要用到confidence。如果某个身体位置坐标点被命名了,我们就保留它,否则,我们就直接让它为0。

我们已经把(绝大部分)数据梳理好了,现在我们需要把数据特征和标签结合起来。

我们用0代表其他姿势,1代表嘻哈超人舞步、2代表T-Pose舞步。

  1. labels=np.zeros(len(otherDataset))labels=np.append(labels,np.full((len(dabDataset)),1))labels=np.append(labels,np.full((len(tposeDataset)),2))print(labels)print("%itotalexamplesfortraining."%len(labels))

接下来,我们可以使用独热编码处理我们的数字标签。也就是说,我们将标签0、1、2转换成[1,0,0]、[0,1,0]、[0,0,1]。之后,我们可以使用sklearn的shuffle函数将数据标签和特征打乱(数据标签和特征仍保持原有的对应关系)

  1. #now,let'sshufflelabelsandthearray,thesamewayfromsklearn.utilsimportshuffleX1,y1=shuffle(dataset,labels)#nowlet'slabelthemfor'onehot'fromkeras.utils.np_utilsimportto_categoricaly1=to_categorical(y1,3)#wehave3categories,dab,tpose,otherprint(y1.shape[1)]

我们的输入数据代表着鼻子、手等等的位置,而它们的是介于0到720和0到1280之间的像素值,所以我们需要把数据归一化。这样一来,我们可以重复使用我们的模型而不用考虑输入图片数据的分辨率。

  1. X1[:,:,0]=X1[:,:,0]/720#Ithinkthedimensionsare1280x720?X1[:,:,1]=X1[:,:,1]/1280#let'ssee?X1=X1[:,:,1:]print(X1.shape)X1=X1.reshape(len(X1),50)#wegotridofconfidencepercentage

在最后一步中,我们将把我们的多维数据变成一维。我们会分批向模型输入50个位置信息(25个部位,每个部位的X和Y值)。

构建并训练我们的模型

在Jupyter notebook中使用Keras可以把训练和测试神经网络模型的工作变得十分简单,这也是我最喜欢Keras的地方。

程序员深夜用Python跑神经网络,只为用中二动作关掉台灯

现在我们的数据已经贴上标签准备就绪了,我们可以开始训练一个简单的模型了,只需要几行代码。

现在我们导入Keras库然后训练一个简单的神经网络模型。

  1. fromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Activation,Flattenfromkeras.optimizersimportSGD
  2. model=Sequential()model.add(Dense(128,activation='relu',input_shape=(50,)))model.add(Dropout(0.5))model.add(Dense(128,activation='relu'))model.add(Dropout(0.5))model.add(Dense(y1.shape[1],activation='softmax'))model.compile(optimizer='Adam',loss='categorical_crossentropy',metrics=['accuracy'])model.fit(X1,y1,epochs=2000,batch_size=25)

搞定!

这里有个稍微需要注意的地方,输入层的大小为50,提醒大家一下,这个数字是OpenPose模型中位置点的X坐标和Y坐标数量之和。

最后我们用到了Softmax层,它是用来分类的。我们将y.shape[1]传入该层,这样我们的模型就知道不同类别的数量了。

最后的最后,我们使用输入数据,用model.fit()的方法去训练模型。这里,我已经做了2000次迭代(全部样本训练一次为一次迭代)。2000次迭代貌似有点多了,500次左右的迭代可能更好,因为迭代次数过多可能使我们的模型出现一些过拟合问题。但是不论是哪一种情况,你都需要经过多次尝试来确定迭代次数。

当我们运行这段代码时,我们会看到准确度在提高。如果你看不到,请再次确认当你打乱数据时,数据标签和数据特征的对应关系是不变的。此外,也要确认数据里的数值是不是在0到1之间。

最后,我们可以保存训练后的模型,也可以使用样本数据集来测试该模型,保存模型的代码很简单:

  1. model.save('data/dab-tpose-other.h5')#saveourmodelash5
  2. #inourothercode,orinline,loadthemodelandtestagainstsampledabdatasetimportkerasmodello=keras.models.load_model('data/dab-tpose-other.h5')dabDataset=np.load('data/test-dabs.npy')dabDataset[:,:,0]=dabDataset[:,:,0]/720#Ithinkthedimensionsare1280x720?dabDataset[:,:,1]=dabDataset[:,:,1]/1280#let'ssee?dabDataset=dabDataset[:,:,1:]dabDataset=dabDataset.reshape(len(dabDataset),50)modello.predict_classes(dabDataset)#returnsarray([1,1,1,1,1,1])

用模型来控制灯光

我们现在已经有了可以识别姿势的模型,接下来要做的只是把这个模型和无线灯光控制关联起来就行了。

程序员深夜用Python跑神经网络,只为用中二动作关掉台灯

在我的这个例子中,我使用Aeotec Z-Stick来发送Z-Wave指令,并配有两个GE Z-Wave的室外开关。USB接口接入到NVIDIA TX2人工智能模块,其实NVIDIA的Jestson Nano也能胜任,尽管Jetson Nano所能提供的分辨率要低于我样例中1280x720的分辨率。当Z-Stick插入到ARM设备后,你首先需要把开关调到Z-Wave模式,可能需要多按几下USB Stick上的按钮和灯的开关。

代码并不复杂,基本上就是训练环境再加上一个额外的步骤。现在,我们导入Keras,然后使用清理过的数据训练模型。

  1. importcv2importpyopenposeasopfromimutilsimporttranslate,rotate,resizeimportopenzwavefromopenzwave.optionimportZWaveOptionfromopenzwave.networkimportZWaveNetwork#makesurethesecommandsgetflushedbydoingthemfirst,thenloadingtensorflow...#tensorflowshouldtakeenoughtimetostartforthesecommandstoflushoptions=ZWaveOption('/dev/ttyACM0')options.lock()network=ZWaveNetwork(options)importtimeimportnumpyasnpnp.random.seed(1337)importtensorflowastf#makesuretensorflowdoesn'ttakeupallthegpumemoryconf=tf.ConfigProto()conf.gpu_options.allow_growth=Truesession=tf.Session(config=conf)importkeras#CustomParams(refertoinclude/openpose/flags.hppformoreparameters)params=dict()params["model_folder"]="../../models/"#builtinTX2videocapturesourcevs=cv2.VideoCapture("nvarguscamerasrc!video/x-raw(memory:NVMM),width=(int)1280,height=(int)720,format=(string)NV12,framerate=(fraction)24/1!nvvidconvflip-method=0!video/x-raw,format=(string)BGRx!videoconvert!video/x-raw,format=(string)BGR!appsink")tposer=keras.models.load_model('dab-tpose-other.h5')#StartingOpenPoseopWrapper=op.WrapperPython()opWrapper.configure(params)opWrapper.start()datum=op.Datum()np.set_printoptions(precision=4)fps_time=0DAB=1TPOSE=2OTHER=0LIGHTS=0bounced=time.time()debounce=3#wait3secondsbeforeallowinganothercommandwhileTrue:ret_val,frame=vs.read()datum.cvInputData=frameopWrapper.emplaceAndPop([datum])#needtobeabletoseewhat'sgoingonimage=datum.cvOutputDatacv2.putText(image,"FPS:%f"%(1.0/(time.time()-fps_time)),(10,20),cv2.FONT_HERSHEY_SIMPLEX,0.5,(0,255,0),2)cv2.imshow("Openpose",image)ifdatum.poseKeypoints.any():first_input=datum.poseKeypointstry:first_input[:,:,0]=first_input[:,:,0]/720first_input[:,:,1]=first_input[:,:,1]/1280first_input=first_input[:,:,1:]first_input=first_input.reshape(len(datum.poseKeypoints),50)except:continueoutput=tposer.predict_classes(first_input)forjinoutput:ifj==1:print("dabdetected")ifLIGHTS==0or(time.time()-bounced)<debounce:continuefornodeinnetwork.nodes:forvalinnetwork.nodes[node].get_switches():network.nodes[node].set_switch(val,False)LIGHTS=0bounced=time.time()elifj==2:print("tposedetected")ifLIGHTS==1or(time.time()-bounced)<debounce:continuefornodeinnetwork.nodes:forvalinnetwork.nodes[node].get_switches():network.nodes[node].set_switch(val,True)LIGHTS=1bounced=time.time()fps_time=time.time()#quitwithaqkeypress,bormtosavedatakey=cv2.waitKey(1)&0xFFifkey==ord("q"):break#cleanupafteryourselfvs.release()cv2.destroyAllWindows()

到了这一步,工作基本上就算完成了!

我们成功地训练了一个用于识别嘻哈超人舞步、T-Pose舞步的神经网络模型,然后我们可以让它根据我们的舞步来制造可互动的灯。

太棒了,给自己点个赞!

后记

所有代码、模型以及训练数据都免费公布在Github上。

我建议你们在Jupyter notebook上试试这个项目。我的代码中有个漏洞,我一直无法从自己的工作簿中找出来。这个漏洞导致我的原始的X和Y标签并没有被正确地标记。如果你找到了解决这个漏洞的方法,记得在Github上创建一个Pull Request(PR)。

另外,我们今天构建的基础模型可以用来训练很多类型的舞蹈动作。尽管我的模型每秒只能捕捉很少的画面,但我们可以开始建立一个有关舞步的数据集,然后再构建一个能识别这些不同舞步的神经网络模型。

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年5月5日 16:47
下一篇 2023年5月5日 16:47

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信