在進(jìn)行模型訓(xùn)練時(shí),我們需要構(gòu)造訓(xùn)練樣本和設(shè)計(jì)損失函數(shù),才能利用梯度下降對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。將一幅圖片輸入到y(tǒng)olo模型中,對(duì)應(yīng)的輸出是一個(gè)7x7x30張量,構(gòu)建標(biāo)簽label時(shí)對(duì)于原圖像中的每一個(gè)網(wǎng)格grid都需要構(gòu)建一個(gè)30維的向量。對(duì)照下圖我們來(lái)構(gòu)建目標(biāo)向量:查看全文>>
不斷地交換下去就可以將最大的那個(gè)數(shù)放到隊(duì)列的尾部。然后重頭再次交換,直到將數(shù)列排成有序數(shù)列。接下來(lái)我們以以數(shù)列[5, 9, 3, 1, 2, 8, 4, 7, 6]為例,演示冒泡排序的實(shí)現(xiàn)過(guò)程,最初的數(shù)列順序如下圖所示:查看全文>>
?復(fù)雜度分析是估算算法執(zhí)行效率的方法,公式O(f(n))表示算法的復(fù)雜度,此方法即為大O復(fù)雜度表示法O(f(n))中n表示數(shù)據(jù)規(guī)模,f(n)表示運(yùn)行算法所需要執(zhí)行的指令數(shù)。下面的代碼非常簡(jiǎn)單,求 1,2,3…n 的累加和,我們要做的是估算它的執(zhí)行效率。查看全文>>
使用超平面進(jìn)行分割數(shù)據(jù)的過(guò)程中,如果我們嚴(yán)格地讓所有實(shí)例都不在最大=大間隔之間,并且位于正確的一邊,這就是硬間隔分類。硬間隔分類有兩個(gè)問(wèn)題,首先,它只在數(shù)據(jù)是線性可分離的時(shí)候才有效;其次,它對(duì)異常值非常敏感。查看全文>>
Seaborn基于 Matplotlib核心庫(kù)進(jìn)行了更高級(jí)的API封裝,可以輕松地畫出更漂亮的圖形,而Seaborn的漂亮主要體現(xiàn)在配色更加舒服,以及圖形元素的樣式更加細(xì)膩。查看全文>>
SOM 即自組織映射,是一種用于特征檢測(cè)的無(wú)監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。它模擬人腦中處于不同區(qū)域的神經(jīng)細(xì)胞 分工不同的特點(diǎn),即不同區(qū)域具有不同的響應(yīng)特征,而且這一過(guò)程是自動(dòng)完成的。SOM 用于生成訓(xùn)練樣本的低維 空間,可以將高維數(shù)據(jù)間復(fù)雜的非線性統(tǒng)計(jì)關(guān)系轉(zhuǎn)化為簡(jiǎn)單的幾何關(guān)系,且以低維的方式展現(xiàn),因此通常在降維問(wèn)題中會(huì)使用它。查看全文>>