国产成人毛片视频|星空传媒久草视频|欧美激情草久视频|久久久久女女|久操超碰在线播放|亚洲强奸一区二区|五月天丁香社区在线|色婷婷成人丁香网|午夜欧美6666|纯肉无码91视频

inception Net如何實現(xiàn)數(shù)據(jù)增強?

網(wǎng)友解答: 謝邀看到悟空問答官方給我推薦這個問題,我不得不說,這推薦是不是有點太精準(zhǔn)了?我才前幾天在酷米號上發(fā)布的Inception Net如何實現(xiàn)數(shù)據(jù)增強,今天就給我推送這個問題,這一

網(wǎng)友解答:

謝邀

看到悟空問答官方給我推薦這個問題,我不得不說,這推薦是不是有點太精準(zhǔn)了?我才前幾天在酷米號上發(fā)布的Inception Net如何實現(xiàn)數(shù)據(jù)增強,今天就給我推送這個問題,這一點我不得不服。所以接下來我就直接引用我之前寫過的文章了。

在CNN中,為了增大數(shù)據(jù)量避免模型的過擬合,通常都會對訓(xùn)練數(shù)據(jù)做數(shù)據(jù)增強處理,這篇文章主要介紹在Inception Net中是如何做數(shù)據(jù)增強的,tensorflow官方通過slim已經(jīng)實現(xiàn)了VGG、Inception、LeNet網(wǎng)絡(luò)的數(shù)據(jù)增強的,官網(wǎng)鏈接如下:https://github.com/tensorflow/models/tree/master/research/slim/preprocessing,Inception Net數(shù)據(jù)增強主要包括以下幾個部分:

1、將圖片的像素縮放到[0,1)

#將圖片的像素值縮放到[0,1)

image = tf.image.convert_image_dtype(image, dtype=tf.float32)

2、隨機裁剪圖片

image:一個3維的圖片tensor,數(shù)據(jù)的取值范圍在[0,1],即表示已經(jīng)做了歸一化后的圖片

bbox:box的邊框,[ymin,xmin,ymax,xmax],默認(rèn)是[0,0,1,1]表示使用的是整張圖片

min_object_covered:在隨機裁剪圖片的時候必須要包括box邊框的比例

aspect_ratio_range:隨機裁剪的圖片,寬/高的比例需要滿足的范圍

area_range:隨機裁剪的圖片需要占圖片的比例

max_attempts:隨機裁剪,嘗試的最多次數(shù),超過最大嘗試次數(shù)返回整張圖片

返回的是一張裁剪之后的圖片和隨機裁剪所選的區(qū)域,后面會通過tensorflow對這個區(qū)域進(jìn)行標(biāo)注,裁剪的圖片就是從這個區(qū)域中選擇的。

標(biāo)簽: