英文教程太難啃?這裡有一份TensorFlow2.0中文教程

2021-01-12 手機鳳凰網

今年 3 月份,谷歌在 Tensorflow Developer Summit 2019 大會上發布 TensorFlow 2.0 Alpha 版。作為當前最為流行的深度學習框架,2.0 Alpha 版的正式發布引人關注。近兩個月,網上已經出現了大量 TensorFlow 2.0 英文教程。在此文章中,機器之心為大家推薦一個持續更新的中文教程,以便大家學習。

雖然,自 TensorFlow 2.0 發布以來,我們總是能夠聽到「TensorFlow 2.0 就是 keras」、「說的很好,但我用 PyTorch」類似的吐槽。但毋庸置疑,TensorFlow 依然是當前最主流的深度學習框架(感興趣的讀者可查看機器之心文章:2019 年,TensorFlow 被拉下馬了嗎?)。

整體而言,為了吸引用戶,TensorFlow 2.0 從簡單、強大、可擴展三個層面進行了重新設計。特別是在簡單化方面,TensorFlow 2.0 提供更簡化的 API、注重 Keras、結合了 Eager execution。

過去一段時間,機器之心為大家編譯介紹了部分英文教程,例如:

如何在 TensorFlow 2.0 中構建強化學習智能體 TensorFlow 2.0 到底怎麼樣?簡單的圖像分類任務探一探

此文章中,機器之心為大家推薦一個持續更新的中文教程,方便大家更系統的學習、使用 TensorFlow 2.0 :

知乎專欄地址:https://zhuanlan.zhihu.com/c_1091021863043624960 Github 項目地址:https://github.com/czy36mengfei/tensorflow2_tutorials_chinese

該教程是 NLP 愛好者 Doit 在知乎上開的一個專欄,由作者從 TensorFlow2.0 官方教程的個人學習復現筆記整理而來。作者將此教程分為了三類:TensorFlow 2.0 基礎教程、TensorFlow 2.0 深度學習實踐、TensorFlow 2.0 基礎網絡結構。

以基礎教程為例,作者整理了 Keras 快速入門教程、eager 模式、Autograph 等。目前為止,該中文教程已經包含 20 多篇文章,作者還在持續更新中,感興趣的讀者可以 follow。

該中文教程當前目錄

以下是作者整理的「Keras 快速入門」教程內容。

Keras 快速入門

Keras 是一個用於構建和訓練深度學習模型的高階 API。它可用於快速設計原型、高級研究和生產。

keras 的 3 個優點: 方便用戶使用、模塊化和可組合、易於擴展

1. 導入 tf.keras

tensorflow2 推薦使用 keras 構建網絡,常見的神經網絡都包含在 keras.layer 中 (最新的 tf.keras 的版本可能和 keras 不同)

import tensorflow as tf

from tensorflow.keras import layers

print(tf.__version__)

print(tf.keras.__version__)

2. 構建簡單模型

2.1 模型堆疊

最常見的模型類型是層的堆疊:tf.keras.Sequential 模型

model = tf.keras.Sequential()

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(10, activation='softmax'))

2.2 網絡配置

tf.keras.layers 中網絡配置:

activation:設置層的激活函數。此參數由內置函數的名稱指定,或指定為可調用對象。默認情況下,系統不會應用任何激活函數。 kernel_initializer 和 bias_initializer:創建層權重(核和偏差)的初始化方案。此參數是一個名稱或可調用對象,默認為 "Glorot uniform" 初始化器。 kernel_regularizer 和 bias_regularizer:應用層權重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認情況下,系統不會應用正則化函數。

layers.Dense(32, activation='sigmoid')

layers.Dense(32, activation=tf.sigmoid)

layers.Dense(32, kernel_initializer='orthogonal')

layers.Dense(32, kernel_initializer=tf.keras.initializers.glorot_normal)

layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l2(0.01))

layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l1(0.01))

3. 訓練和評估

3.1 設置訓練流程

構建好模型後,通過調用 compile 方法配置該模型的學習流程:

model = tf.keras.Sequential()

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=[tf.keras.metrics.categorical_accuracy])

3.2 輸入 Numpy 數據

import numpy as np

train_x = np.random.random((1000, 72))

train_y = np.random.random((1000, 10))

val_x = np.random.random((200, 72))

val_y = np.random.random((200, 10))

model.fit(train_x, train_y, epochs=10, batch_size=100,

validation_data=(val_x, val_y))

3.3tf.data 輸入數據

dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y))

dataset = dataset.batch(32)

dataset = dataset.repeat()

val_dataset = tf.data.Dataset.from_tensor_slices((val_x, val_y))

val_dataset = val_dataset.batch(32)

val_dataset = val_dataset.repeat()

model.fit(dataset, epochs=10, steps_per_epoch=30,

validation_data=val_dataset, validation_steps=3)

3.4 評估與預測

test_x = np.random.random((1000, 72))

test_y = np.random.random((1000, 10))

model.evaluate(test_x, test_y, batch_size=32)

test_data = tf.data.Dataset.from_tensor_slices((test_x, test_y))

test_data = test_data.batch(32).repeat()

model.evaluate(test_data, steps=30)

# predict

result = model.predict(test_x, batch_size=32)

print(result)

4. 構建高級模型

4.1 函數式 api

tf.keras.Sequential 模型是層的簡單堆疊,無法表示任意模型。使用 Keras 函數式 API 可以構建複雜的模型拓撲,例如:

多輸入模型, 多輸出模型, 具有共享層的模型(同一層被調用多次), 具有非序列數據流的模型(例如,殘差連接)。

使用函數式 API 構建的模型具有以下特徵:

層實例可調用並返回張量。 輸入張量和輸出張量用於定義 tf.keras.Model 實例。 此模型的訓練方式和 Sequential 模型一樣。

input_x = tf.keras.Input(shape=(72,))

hidden1 = layers.Dense(32, activation='relu')(input_x)

hidden2 = layers.Dense(16, activation='relu')(hidden1)

pred = layers.Dense(10, activation='softmax')(hidden2)

model = tf.keras.Model(inputs=input_x, outputs=pred)

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=32, epochs=5)

4.2 模型子類化

通過對 tf.keras.Model 進行子類化並定義您自己的前向傳播來構建完全可自定義的模型。在 init 方法中創建層並將它們設置為類實例的屬性。在 call 方法中定義前向傳播

class MyModel(tf.keras.Model):

def __init__(self, num_classes=10):

super(MyModel, self).__init__(name='my_model')

self.num_classes = num_classes

self.layer1 = layers.Dense(32, activation='relu')

self.layer2 = layers.Dense(num_classes, activation='softmax')

def call(self, inputs):

h1 = self.layer1(inputs)

out = self.layer2(h1)

return out

def compute_output_shape(self, input_shape):

shape = tf.TensorShapej(input_shape).as_list()

shape[-1] = self.num_classes

return tf.TensorShape(shape)

model = MyModel(num_classes=10)

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.3 自定義層

通過對 tf.keras.layers.Layer 進行子類化並實現以下方法來創建自定義層:

build:創建層的權重。使用 add_weight 方法添加權重。 call:定義前向傳播。 compute_output_shape:指定在給定輸入形狀的情況下如何計算層的輸出形狀。或者,可以通過實現 get_config 方法和 from_config 類方法序列化層。

class MyLayer(layers.Layer):

def __init__(self, output_dim, **kwargs):

self.output_dim = output_dim

super(MyLayer, self).__init__(**kwargs)

def build(self, input_shape):

shape = tf.TensorShape((input_shape[1], self.output_dim))

self.kernel = self.add_weight(name='kernel1', shape=shape,

initializer='uniform', trainable=True)

super(MyLayer, self).build(input_shape)

def call(self, inputs):

return tf.matmul(inputs, self.kernel)

def compute_output_shape(self, input_shape):

shape = tf.TensorShape(input_shape).as_list()

shape[-1] = self.output_dim

return tf.TensorShape(shape)

def get_config(self):

base_config = super(MyLayer, self).get_config()

base_config['output_dim'] = self.output_dim

return base_config

@classmethod

def from_config(cls, config):

return cls(**config)

model = tf.keras.Sequential(

[

MyLayer(10),

layers.Activation('softmax')

])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.4 回調

callbacks = [

tf.keras.callbacks.EarlyStopping(patience=2, monitor='val_loss'),

tf.keras.callbacks.TensorBoard(log_dir='./logs')

]

model.fit(train_x, train_y, batch_size=16, epochs=5,

callbacks=callbacks, validation_data=(val_x, val_y))

5 保持和恢復

5.1 權重保存

model = tf.keras.Sequential([

layers.Dense(64, activation='relu'),

layers.Dense(10, activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss='categorical_crossentropy',

metrics=['accuracy'])

model.save_weights('./weights/model')

model.load_weights('./weights/model')

model.save_weights('./model.h5')

model.load_weights('./model.h5')

5.2 保存網絡結構

# 序列化成json

import json

import pprint

json_str = model.to_json()

pprint.pprint(json.loads(json_str))

fresh_model = tf.keras.models.model_from_json(json_str)

# 保持為yaml格式 #需要提前安裝pyyaml

yaml_str = model.to_yaml()

print(yaml_str)

fresh_model = tf.keras.models.model_from_yaml(yaml_str)

5.3 保存整個模型

model = tf.keras.Sequential([

layers.Dense(10, activation='softmax', input_shape=(72,)),

layers.Dense(10, activation='softmax')

])

model.compile(optimizer='rmsprop',

loss='categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=32, epochs=5)

model.save('all_model.h5')

model = tf.keras.models.load_model('all_model.h5')

6. 將 keras 用於 Estimator

Estimator API 用於針對分布式環境訓練模型。它適用於一些行業使用場景,例如用大型數據集進行分布式訓練並導出模型以用於生產

model = tf.keras.Sequential([layers.Dense(10,activation='softmax'),

layers.Dense(10,activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss='categorical_crossentropy',

metrics=['accuracy'])

estimator = tf.keras.estimator.model_to_estimator(model)

相關焦點

  • 入門TensorFlow 2.0,這有一份簡單粗暴的中文教程:北大學霸出品
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAITensorFlow 2.0已在十一發布,香不香?好用不好用?現在,這裡有一份全中文教學的快手上手指南,基於Keras和Eager Execution(動態圖)模式,北大學霸出品,獲得TensorFlow官方認可。其名為,簡單粗暴TensorFlow 2.0。話不多說,一起來看看吧。
  • Tensorflow 全網最全學習資料匯總之Tensorflow 的入門與安裝【2】
    經過了以上來自民間的實踐教程之後,相信各位讀者對TensorFlow的大致情況和具體安裝方法已經有了自己的理解。下面對於那些想要更全面和深入地了解TensorFlow的讀者,我們推薦幾個官方的教程。5.
  • TensorFlow 中文資源全集,學習路徑推薦
    https://gitee.com/fendouai/Awesome-TensorFlow-Chinese很多內容下面這個英文項目:Inspired by https://github.com/jtoy/awesome-tensorflow官方網站官網:https://www.tensorflow.org/中文:https://tensorflow.google.cn
  • 基於TensorFlow2.0的中文深度學習開源書來了!GitHub趨勢日榜第一
    因為這是一本基於TensorFlow 2.0 正式版的中文深度學習開源書。還包含電子書和配套原始碼。話不多說,一起來看看這本爆款書籍吧!91.pdf不過,從最後一章「精靈寶可夢數據集」和目錄排版來看,似乎有一絲致敬臺大李宏毅老師的感覺。
  • 從框架優缺點說起,這是一份TensorFlow入門極簡教程
    而在昨天機器之心發起的框架投票中,2144 位參與者中有 1441 位都在使用 TensorFlow 框架,是所有框架中使用率最高的。但 TensorFLow 這種靜態計算圖有一定的學習成本,因此也阻擋了很多初學者入坑。本文介紹了學習 TensorFlow 的系列教程,旨在通過簡單的理論與實踐幫助初學者一步步掌握 TensorFlow 的編程技巧。
  • TensorFlow極簡教程:創建、保存和恢復機器學習模型
    希望你從這個教程中得到啟發。繼續之前,也可以閱讀這個 Tensorflow 小入門:https://blog.metaflow.fr/tensorflow-a-primer-4b3fa0978be3#.wxlmweb8h你有必要了解這些信息,因為了解如何保存不同級別的代碼是非常重要的,這可以避免混亂無序。
  • 教程| 如何用TensorFlow在安卓設備上實現深度學習推斷
    開發環境信息:Pixel, cpu type: ARM64Android 7.1.1Android NDK 15.2Android gradle plugin 2.3.0TensorFlow 1.3.0bazel 0.5.4-homebrew
  • TensorFlow 2.0開源工具書,30天「無痛」上手
    有人在 GitHub 開源了一個名為《30 天吃掉那隻 TensorFlow2.0》的入門工具書,或許可以讓你無痛上手 TensorFlow 2.0。該教程與 TensorFlow 的差異如下所示:圖片來自項目作者提供的開源文檔。從課程大綱來看,有一定基礎的讀者只需三十天就可以學完整個教程,而且每天都被安排得明明白白。
  • 步履不停:TensorFlow 2.4新功能一覽!
    參數伺服器訓練教程           https://tensorflow.google.cn/tutorials/distribute/parameter_server_training    ClusterCoordinator           https://tensorflow.google.cn/api_docs/python
  • 谷歌開放GNMT教程:如何使用TensorFlow構建自己的神經機器翻譯系統
    選自谷歌機器之心編譯參與:機器之心編輯部近日,谷歌官方在 Github 開放了一份神經機器翻譯教程,該教程從基本概念實現開始,首先搭建了一個簡單的NMT模型,隨後更進一步引進注意力機制和多層 LSTM 加強系統的性能,最後谷歌根據 GNMT 提供了更進一步改進的技巧和細節,這些技巧能令該NMT系統達到極其高的精度。
  • 【TensorFlow2.0】Transformer聊天機器人教程
    通過TensorFlow 2.0,我們可以輕鬆構建複雜的模型。 在這篇文章中,我們將演示如何構建Transformer聊天機器人。u0 +++$+++ u2 +++$+++ m0 +++$+++ [『L194』, 『L195』, 『L196』, 『L197』]u0 +++$+++ u2 +++$+++ m0 +++$+++ [『L198』, 『L199』]u0 +++$+++ u2 +++$+++ m0 +++$+++ [『L200』, 『L201』, 『L202』,
  • 教程 | 如何利用TensorFlow.js部署簡單的AI版「你畫我猜」圖像識別應用
    我在 TensorFlow.js 上創建了一個教程(https://medium.com/tensorflow/a-gentle-introduction-to-tensorflow-js-dba2e5257702)。在繼續下面的工作之前,請務必先閱讀一下這個教程。下圖為該項目的處理流程:
  • TensorFlow 資源大全中文版
    TensorFlow 是一個採用數據流圖(data flow graphs),用於數值計算的開源軟體庫。節點(Nodes)在圖中表示數學操作,圖中的線(edges)則表示在節點間相互聯繫的多維數據數組,即張量(tensor)。它靈活的架構讓你可以在多種平臺上展開計算,例如臺式計算機中的一個或多個CPU(或GPU)、伺服器、行動裝置等等。
  • 玩轉TensorFlow?你需要知道這30功能
    這意味著,如果不想使用低階的模型,那仍然可以用高階 API 的用戶友好性來實現圖形+模型的構建。2.0 版本將會有更多的功能!網址:https://www.tensorflow.org/guide/keras12)Tensor2TensorTensor2Tensor 是一個深度學習模型和數據集的開源軟體庫
  • TensorFlow極速入門
    一、前言目前,深度學習已經廣泛應用於各個領域,比如圖像識別,圖形定位與檢測,語音識別,機器翻譯等等,對於這個神奇的領域,很多童鞋想要一探究竟,這裡拋磚引玉的簡單介紹下最火的深度學習開源框架 tensorflow。
  • 如何優雅地用TensorFlow預測時間序列:TFTS庫詳細教程
    如果在Github上搜索「tensorflow time series」,會發現star數最高的tgjeon/TensorFlow-Tutorials-for-Time-Series已經和TF 1.0版本不兼容了,並且其他的項目使用的方法也各有不同,比較混亂。
  • 如何用TensorFlow構建RNN?這裡有一份極簡的教程
    王小新編譯自KDnuggets量子位出品|公眾號QbitAI本文作者ErikHallstrm是一名深度學習研究工程師,他的這份教程以Echo-RNN為例,介紹了如何在TensorFlow環境中構建一個簡單的循環神經網絡。什麼是RNN?
  • 如何使用TensorFlow Hub的ESRGAN模型來在安卓app中生成超分圖片
    (sr, 0, 255) sr = tf.round(sr) sr = tf.cast(sr, tf.uint8) 教程 https://tensorflow.google.cn/hub/tutorials/image_enhancing
  • TensorFlow 攜手 NVIDIA,使用 TensorRT 優化 TensorFlow Serving...
    目前,TensorFlow Serving 1.13 已實現對 TF-TRT 的支持,而不久後  TensorFlow 2.0 也將支持 TF-TRT 的實現。 TensorFlow 在官方博客中對這項成果進行了發布,雷鋒網 AI 科技評論編譯如下。
  • Keras入門系列教程:兩分鐘構建你的第一個神經網絡模型
    本教程由深度學習中文社區(Studydl.com)持續發布與更新, 本系列其餘教程地址見文章末尾.要開始使用tf.keras, 請將其作為TensorFlow程序的一部分導入:import tensorflow as tffrom tensorflow import kerastf.keras 可以運行任何與Keras兼容的代碼