成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Tensorflow分類器項(xiàng)目自定義數(shù)據(jù)讀入

ysl_unh / 1686人閱讀

摘要:分類器項(xiàng)目自定義數(shù)據(jù)讀入在照著官網(wǎng)的敲了一遍分類器項(xiàng)目的代碼后,運(yùn)行倒是成功了,結(jié)果也不錯(cuò)。

Tensorflow分類器項(xiàng)目自定義數(shù)據(jù)讀入

在照著Tensorflow官網(wǎng)的demo敲了一遍分類器項(xiàng)目的代碼后,運(yùn)行倒是成功了,結(jié)果也不錯(cuò)。但是最終還是要訓(xùn)練自己的數(shù)據(jù),所以嘗試準(zhǔn)備加載自定義的數(shù)據(jù),然而demo中只是出現(xiàn)了fashion_mnist.load_data()并沒有詳細(xì)的讀取過程,隨后我又找了些資料,把讀取的過程記錄在這里。
首先提一下需要用到的模塊:

import os

import keras
import matplotlib.pyplot as plt
from PIL import Image
from keras.preprocessing.image import ImageDataGenerator
from sklearn.model_selection import train_test_split

圖片分類器項(xiàng)目,首先確定你要處理的圖片分辨率將是多少,這里的例子為30像素:

IMG_SIZE_X = 30
IMG_SIZE_Y = 30

其次確定你圖片的方式目錄:

image_path = r"D:ProjectsImageClassifierdataset"
path = ".data"
# 你也可以使用相對(duì)路徑的方式
# image_path =os.path.join(path, "set")

目錄下的結(jié)構(gòu)如下:

相應(yīng)的label.txt如下:

動(dòng)漫
風(fēng)景
美女
物語
櫻花

接下來是接在labels.txt,如下:

label_name = "labels.txt"
label_path = os.path.join(path, label_name)
class_names = np.loadtxt(label_path, type(""))

這里簡便起見,直接利用了numpy的loadtxt函數(shù)直接加載。

之后便是正式處理圖片數(shù)據(jù)了,注釋就寫在里面了:

re_load = False
re_build = False
# re_load = True
re_build = True

data_name = "data.npz"
data_path = os.path.join(path, data_name)
model_name = "model.h5"
model_path = os.path.join(path, model_name)

count = 0

# 這里判斷是否存在序列化之后的數(shù)據(jù),re_load是一個(gè)開關(guān),是否強(qiáng)制重新處理,測試用,可以去除。
if not os.path.exists(data_path) or re_load:
    labels = []
    images = []
    print("Handle images")
    # 由于label.txt是和圖片防止目錄的分類目錄一一對(duì)應(yīng)的,即每個(gè)子目錄的目錄名就是labels.txt里的一個(gè)label,所以這里可以通過讀取class_names的每一項(xiàng)去拼接path后讀取
    for index, name in enumerate(class_names):
        # 這里是拼接后的子目錄path
        classpath = os.path.join(image_path, name)
        # 先判斷一下是否是目錄
        if not os.path.isdir(classpath):
            continue
        # limit是測試時(shí)候用的這里可以去除
        limit = 0
        for image_name in os.listdir(classpath):
            if limit >= max_size:
                break
            # 這里是拼接后的待處理的圖片path
            imagepath = os.path.join(classpath, image_name)
            count = count + 1
            limit = limit + 1
            # 利用Image打開圖片
            img = Image.open(imagepath)
            # 縮放到你最初確定要處理的圖片分辨率大小
            img = img.resize((IMG_SIZE_X, IMG_SIZE_Y))
            # 轉(zhuǎn)為灰度圖片,這里彩色通道會(huì)干擾結(jié)果,并且會(huì)加大計(jì)算量
            img = img.convert("L")
            # 轉(zhuǎn)為numpy數(shù)組
            img = np.array(img)
            # 由(30,30)轉(zhuǎn)為(1,30,30)(即`channels_first`),當(dāng)然你也可以轉(zhuǎn)換為(30,30,1)(即`channels_last`)但為了之后預(yù)覽處理后的圖片方便這里采用了(1,30,30)的格式存放
            img = np.reshape(img, (1, IMG_SIZE_X, IMG_SIZE_Y))
            # 這里利用循環(huán)生成labels數(shù)據(jù),其中存放的實(shí)際是class_names中對(duì)應(yīng)元素的索引
            labels.append([index])
            # 添加到images中,最后統(tǒng)一處理
            images.append(img)
            # 循環(huán)中一些狀態(tài)的輸出,可以去除
            print("{} class: {} {} limit: {} {}"
                  .format(count, index + 1, class_names[index], limit, imagepath))
    # 最后一次性將images和labels都轉(zhuǎn)換成numpy數(shù)組
    npy_data = np.array(images)
    npy_labels = np.array(labels)
    # 處理數(shù)據(jù)只需要一次,所以我們選擇在這里利用numpy自帶的方法將處理之后的數(shù)據(jù)序列化存儲(chǔ)
    np.savez(data_path, x=npy_data, y=npy_labels)
    print("Save images by npz")
else:
    # 如果存在序列化號(hào)的數(shù)據(jù),便直接讀取,提高速度
    npy_data = np.load(data_path)["x"]
    npy_labels = np.load(data_path)["y"]
    print("Load images by npz")
image_data = npy_data
labels_data = npy_labels

到了這里原始數(shù)據(jù)的加工預(yù)處理便已經(jīng)完成,只需要最后一步,就和demo中fashion_mnist.load_data()返回的結(jié)果一樣了。代碼如下:

# 最后一步就是將原始數(shù)據(jù)分成訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)
train_images, test_images, train_labels, test_labels = 
    train_test_split(image_data, labels_data, test_size=0.2, random_state=6)

這里將相關(guān)信息打印的方法也附上:

print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Image Data", image_data.shape))
print("%-28s %-s" % ("Labels Data", labels_data.shape))
print("=================================================================")

print("Split train and test data,p=%")
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Train Images", train_images.shape))
print("%-28s %-s" % ("Test Images", test_images.shape))
print("%-28s %-s" % ("Train Labels", train_labels.shape))
print("%-28s %-s" % ("Test Labels", test_labels.shape))
print("=================================================================")

之后別忘了歸一化喲:

print("Normalize images")
train_images = train_images / 255.0
test_images = test_images / 255.0

最后附上讀取自定義數(shù)據(jù)的完整代碼:

import os

import keras
import matplotlib.pyplot as plt
from PIL import Image
from keras.layers import *
from keras.models import *
from keras.optimizers import Adam
from keras.preprocessing.image import ImageDataGenerator
from sklearn.model_selection import train_test_split

os.environ["TF_CPP_MIN_LOG_LEVEL"] = "2"
# 支持中文
plt.rcParams["font.sans-serif"] = ["SimHei"]  # 用來正常顯示中文標(biāo)簽
plt.rcParams["axes.unicode_minus"] = False  # 用來正常顯示負(fù)號(hào)
re_load = False
re_build = False
# re_load = True
re_build = True
epochs = 50
batch_size = 5
count = 0
max_size = 2000000000
IMG_SIZE_X = 30
IMG_SIZE_Y = 30
np.random.seed(9277)
image_path = r"D:ProjectsImageClassifierdataset"
path = ".data"
data_name = "data.npz"
data_path = os.path.join(path, data_name)
model_name = "model.h5"
model_path = os.path.join(path, model_name)
label_name = "labels.txt"
label_path = os.path.join(path, label_name)
class_names = np.loadtxt(label_path, type(""))
print("Load class names")
if not os.path.exists(data_path) or re_load:
    labels = []
    images = []
    print("Handle images")
    for index, name in enumerate(class_names):
        classpath = os.path.join(image_path, name)
        if not os.path.isdir(classpath):
            continue
        limit = 0
        for image_name in os.listdir(classpath):
            if limit >= max_size:
                break
            imagepath = os.path.join(classpath, image_name)
            count = count + 1
            limit = limit + 1
            img = Image.open(imagepath)
            img = img.resize((30, 30))
            img = img.convert("L")
            img = np.array(img)
            img = np.reshape(img, (1, 30, 30))
            # img = skimage.io.imread(imagepath, as_grey=True)
            # if img.shape[2] != 3:
            #     print("{} shape is {}".format(image_name, img.shape))
            #     continue
            # data = transform.resize(img, (IMG_SIZE_X, IMG_SIZE_Y))
            labels.append([index])
            images.append(img)
            print("{} class: {} {} limit: {} {}"
                  .format(count, index + 1, class_names[index], limit, imagepath))
    npy_data = np.array(images)
    npy_labels = np.array(labels)
    np.savez(data_path, x=npy_data, y=npy_labels)
    print("Save images by npz")
else:
    npy_data = np.load(data_path)["x"]
    npy_labels = np.load(data_path)["y"]
    print("Load images by npz")
image_data = npy_data
labels_data = npy_labels
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Image Data", image_data.shape))
print("%-28s %-s" % ("Labels Data", labels_data.shape))
print("=================================================================")
train_images, test_images, train_labels, test_labels = 
    train_test_split(image_data, labels_data, test_size=0.2, random_state=6)
print("Split train and test data,p=%")
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Train Images", train_images.shape))
print("%-28s %-s" % ("Test Images", test_images.shape))
print("%-28s %-s" % ("Train Labels", train_labels.shape))
print("%-28s %-s" % ("Test Labels", test_labels.shape))
print("=================================================================")

# 歸一化
# 我們將這些值縮小到 0 到 1 之間,然后將其饋送到神經(jīng)網(wǎng)絡(luò)模型。為此,將圖像組件的數(shù)據(jù)類型從整數(shù)轉(zhuǎn)換為浮點(diǎn)數(shù),然后除以 255。以下是預(yù)處理圖像的函數(shù):
# 務(wù)必要以相同的方式對(duì)訓(xùn)練集和測試集進(jìn)行預(yù)處理:
print("Normalize images")
train_images = train_images / 255.0
test_images = test_images / 255.0

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/43131.html

相關(guān)文章

  • 如何優(yōu)雅地用TensorFlow預(yù)測時(shí)間序列:TFTS庫詳細(xì)教程

    摘要:專門設(shè)計(jì)了一套針對(duì)時(shí)間序列預(yù)測問題的,目前提供三種預(yù)測模型。使用模型預(yù)測時(shí)間序列自回歸模型,可以簡稱為模型是統(tǒng)計(jì)學(xué)上處理時(shí)間序列模型的基本方法之一。使用模型訓(xùn)練驗(yàn)證并進(jìn)行時(shí)間序列預(yù)測的示例程序?yàn)椤?前言如何用TensorFlow結(jié)合LSTM來做時(shí)間序列預(yù)測其實(shí)是一個(gè)很老的話題,然而卻一直沒有得到比較好的解決。如果在Github上搜索tensorflow time series,會(huì)發(fā)現(xiàn)star...

    wupengyu 評(píng)論0 收藏0
  • 深度學(xué)習(xí)

    摘要:深度學(xué)習(xí)在過去的幾年里取得了許多驚人的成果,均與息息相關(guān)。機(jī)器學(xué)習(xí)進(jìn)階筆記之一安裝與入門是基于進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng),被廣泛用于語音識(shí)別或圖像識(shí)別等多項(xiàng)機(jī)器深度學(xué)習(xí)領(lǐng)域。零基礎(chǔ)入門深度學(xué)習(xí)長短時(shí)記憶網(wǎng)絡(luò)。 多圖|入門必看:萬字長文帶你輕松了解LSTM全貌 作者 | Edwin Chen編譯 | AI100第一次接觸長短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)時(shí),我驚呆了。原來,LSTM是神...

    Vultr 評(píng)論0 收藏0
  • TensorFlow Hub介紹:TensorFlow中可重用的機(jī)學(xué)習(xí)模塊庫

    摘要:機(jī)器學(xué)習(xí)模型內(nèi)部的組成部分,可以使用進(jìn)行打包和共享。為機(jī)器學(xué)習(xí)開發(fā)者提供庫產(chǎn)生了庫。庫是一個(gè)在中進(jìn)行發(fā)布和重用中機(jī)器學(xué)習(xí)模塊的平臺(tái)。 摘要: 本文對(duì)TensorFlow Hub庫的介紹,并舉例說明其用法。 在軟件開發(fā)中,最常見的失誤就是容易忽視共享代碼庫,而庫則能夠使軟件開發(fā)具有更高的效率。從某種意義上來說,它改變了編程的過程。我們常常使用庫構(gòu)建塊或模塊,并將其連接在一起進(jìn)行編程。 開...

    sunny5541 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

ysl_unh

|高級(jí)講師

TA的文章

閱讀更多
最新活動(dòng)
閱讀需要支付1元查看
<