TensorFlow 2.0中文开源书项目:日赞700,登上GitHub热榜

这个登上 GitHub 趋势榜的项目今日已获得 700 多赞,内容简单易懂,适合初学者和迁移到 tf2.0 的开发者使用。

这个登上 GitHub 趋势榜的项目今日已获得 700 多赞,内容简单易懂,适合初学者和迁移到 tf2.0 的开发者使用。

TensorFlow2.0 正式版已发布一段时间,但目前系统性的相关教程还不够多。这个登上 GitHub 趋势榜的项目今日已获得 700 多赞,内容简单易懂,适合初学者和迁移到 tf2.0 的开发者使用。

深度学习中绕不开的便是对算法框架的实际使用了。如果没有娴熟的工程实践能力,很多优秀的算法设计就无法真正使用。TensorFlow2.0 正式版已发布了一段时间,然而过去使用 TensorFlow1.x 版本的开发者担心两个版本之间的差距过大以至于无法迁移已有的经验,刚入门深度学习的人则因为 TensorFlow 那不友好的 API 和设计逻辑而望而却步。

近日,GitHub 日趋势榜上出现了这样一个中文开源项目。它基于 TensorFlow2.0 框架,有配套学习的书、代码和视频课程,非常适合希望了解 tf2.0 的开发者学习参考。

目前该项目已获得了 1000 多的点赞量,登上了 GitHub 热榜,仅在今天项目就获得 700 多赞。

TensorFlow 2.0中文开æºä¹¦é¡¹ç›®ï¼šæ—¥èµž700,登上GitHub热榜

项目地址:https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book

该项目作者为 Jackie Loong(龙良曲),曾为新加坡国立大学助理研究员,有 8 年的人工智能算法经验,在 AAAI 会议上发表过多篇论文。从他的 GitHub 主页上来看,这位开发者参与了很多深度学习相关的教程项目的工作。

TensorFlow 2.0中文开æºä¹¦é¡¹ç›®ï¼šæ—¥èµž700,登上GitHub热榜

本项目提供了电子版的《TensorFlow 2.0 深度学习开源书》,同时按照章节在每个文件夹中提供了源代码。你只需要下载书籍,并根据内容和源代码进行学习即可。

从章节划分上来看,本书一共分为 15 个章节。首先本书会介绍人工智能的发展历史,然后从第二章开始介绍回归,随后还有分类、TensorFlow 基础和进阶操作、神经网络等知识。在第 10 章以后,书还会介绍包括 CNN、RNN/LSTM、自编码器、GAN 及其变体等多个架构,内容很丰富。

以下为章节目录:

TensorFlow 2.0中文开æºä¹¦é¡¹ç›®ï¼šæ—¥èµž700,登上GitHub热榜

TensorFlow 2.0中文开æºä¹¦é¡¹ç›®ï¼šæ—¥èµž700,登上GitHub热榜

TensorFlow 2.0中文开æºä¹¦é¡¹ç›®ï¼šæ—¥èµž700,登上GitHub热榜

代码部分,目前作者已整理出了除第 4 章以外的大部分代码,目前整理工作还在进行中。

以自编码器的代码为例,作者在 py 文件中详细写出了网络的架构:

  1. classAE(keras.Model):
  2. def__init__(self):
  3. super(AE,self).__init__()
  4. #Encoders
  5. self.encoder=Sequential([
  6. layers.Dense(256,activation=tf.nn.relu),
  7. layers.Dense(128,activation=tf.nn.relu),
  8. layers.Dense(h_dim)
  9. ])
  10. #Decoders
  11. self.decoder=Sequential([
  12. layers.Dense(128,activation=tf.nn.relu),
  13. layers.Dense(256,activation=tf.nn.relu),
  14. layers.Dense(784)
  15. ])
  16. defcall(self,inputs,training=None):
  17. #[b,784]=>[b,10]
  18. h=self.encoder(inputs)
  19. #[b,10]=>[b,784]
  20. x_hat=self.decoder(h)
  21. returnx_hat

同时,每个 py 文件不仅仅只有示例代码。从代码来看,这些 py 文件实际上都是可以直接运行的,以下便是自编码器文件中执行模型训练的代码:

  1. model=AE()
  2. model.build(input_shape=(None,784))
  3. model.summary()
  4. optimizer=tf.optimizers.Adam(lr=lr)
  5. forepochinrange(100):
  6. forstep,xinenumerate(train_db):
  7. #[b,28,28]=>[b,784]
  8. x=tf.reshape(x,[-1,784])
  9. withtf.GradientTape()astape:
  10. x_rec_logits=model(x)
  11. rec_loss=tf.losses.binary_crossentropy(x,x_rec_logits,from_logits=True)
  12. rec_loss=tf.reduce_mean(rec_loss)
  13. grads=tape.gradient(rec_loss,model.trainable_variables)
  14. optimizer.apply_gradients(zip(grads,model.trainable_variables))
  15. ifstep%100==0:
  16. print(epoch,step,float(rec_loss))

这样一来,即使没有编程经验的初学者也可以先跑通代码,理解原理后再尝试自行编程。

除了这些资源外,作者还贴出了一个 tf2.0 实战案例的项目库,开发者可配合使用。

项目地址:https://github.com/dragen1860/TensorFlow-2.x-Tutorials

©本文为清一色官方代发,观点仅代表作者本人,与清一色无关。清一色对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。本文不作为投资理财建议,请读者仅作参考,并请自行承担全部责任。文中部分文字/图片/视频/音频等来源于网络,如侵犯到著作权人的权利,请与我们联系(微信/QQ:1074760229)。转载请注明出处:清一色财经

(0)
打赏 微信扫码打赏 微信扫码打赏 支付宝扫码打赏 支付宝扫码打赏
清一色的头像清一色管理团队
上一篇 2023年5月4日 11:19
下一篇 2023年5月4日 11:20

相关推荐

发表评论

登录后才能评论

联系我们

在线咨询:1643011589-QQbutton

手机:13798586780

QQ/微信:1074760229

QQ群:551893940

工作时间:工作日9:00-18:00,节假日休息

关注微信