一,首先來看MNIST數(shù)據(jù)的形式 官網(wǎng)下載的真實數(shù)據(jù)是二進制數(shù)據(jù),編輯器不能查看,不過通過其描述可知: (1)文件有4個,根據(jù){ training,test },{ image,lable }組合為“training-image”,“training-lable”,“test-image”,“test-lable” 4個文件 (2)通過tensorflow提供的input_data.read_data_set()方法將數(shù)據(jù)存儲為tf程序可以執(zhí)行的4個二維tensor。 (3)mnist.train.xs是訓練集的二維tensor,第一維表示圖片的index,第二維表示每張圖片中像素的index,那么,tensor中的數(shù)值在0-1之間,表示某張圖片中某個像素點的顏色深度。如官網(wǎng)圖 (4)mnist.train.ys是訓練集的二位tensor,第一維表示圖片的index,第二維表示one-hot型向量,何為one-hot?即一個向量中只能有一個元素為1,其他全部為0。那么,每張圖片的one-hot型lable中值為1的index就是圖片的真實值。 二,softmax regressions softmax算法主要應用于多分類問題,特點是:所有結果的可能性在0-1之間,和為1,若有一種可能性超過其他可能性,則該可能性趨近于1,而娶她可能性趨近于0,勝者獨占。 三,stochastic gradient descent(隨機梯度下降) 每次都用完整的訓練集固然好,但是太消耗資源,那么每次只取訓練集中的一小部分來訓練,這樣能達到相似的效果,代價更小。
mnist.train.next_batch(100)函數(shù)從整個訓練集中隨機選中100張圖片,然后返回其圖片和標簽。
|
|
來自: 雪柳花明 > 《TensorFlow》