摘要:這里通過(guò)數(shù)學(xué)的角度理解一下矩陣的平移,縮放和旋轉(zhuǎn)假設(shè)一個(gè)向量為其中表示向量,表示方向如果,那么平移就沒(méi)有意義,也就是說(shuō)平移一個(gè)方向沒(méi)有意義,為何可以在下面的公式看得處假設(shè)一個(gè)矩陣為那么向量乘矩陣的結(jié)果為觀察結(jié)果,如果紅色框部分為單位向量的話
這里通過(guò)數(shù)學(xué)的角度理解一下矩陣的平移,縮放和旋轉(zhuǎn)
假設(shè)一個(gè)向量為vec=(x,y,z,w),
其中w=1表示向量,w=0表示方向
如果w=0,那么平移就沒(méi)有意義,也就是說(shuō)平移一個(gè)方向沒(méi)有意義,為何可以在下面的公式看得處.
假設(shè)一個(gè)矩陣為
` mat= a1 a2 a3 a b1 b2 b3 b c1 c2 c3 c 0 0 0 0 , //那么向量乘矩陣的結(jié)果為 x=a1x+a2y+a3z+a y=b1x+b2y+b3z+b z=c1x+c2y+c3z+c w=1 , `
觀察結(jié)果,如果紅色框部分為單位向量的話,那a,b,c分別為下x,y,z移動(dòng)距離的話,就不難理解了
縮放矩陣的話,如果a1,b2,c3的值外,其余為0的話,那么a1,b2,c3的值便是x,y,z的縮放值
如果是旋轉(zhuǎn)矩陣,假設(shè)我們是繞Z軸旋轉(zhuǎn),那結(jié)果公式中Z軸不應(yīng)變化,所以c1,c2為0,
假設(shè)旋轉(zhuǎn)角度為α,則a1=cosα,a2=sinα,b1=-sinα,b2=conα,原理大概就是a1,b2控制x,y縮放,a2,b1控制x,y旋轉(zhuǎn),如果想詳細(xì)了解原理,推薦看這個(gè)線性代數(shù)詳解;
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/96373.html
摘要:個(gè)人前端文章整理從最開始萌生寫文章的想法,到著手開始寫,再到現(xiàn)在已經(jīng)一年的時(shí)間了,由于工作比較忙,更新緩慢,后面還是會(huì)繼更新,現(xiàn)將已經(jīng)寫好的文章整理一個(gè)目錄,方便更多的小伙伴去學(xué)習(xí)。 showImg(https://segmentfault.com/img/remote/1460000017490740?w=1920&h=1080); 個(gè)人前端文章整理 從最開始萌生寫文章的想法,到著手...
摘要:但是由于神經(jīng)網(wǎng)絡(luò)的許多細(xì)節(jié)并未過(guò)分深入比如層數(shù)和每層神經(jīng)元數(shù)的設(shè)定,過(guò)擬合等,初建的網(wǎng)絡(luò)實(shí)際上和真實(shí)的網(wǎng)絡(luò)還是有一定差距的。和神經(jīng)網(wǎng)絡(luò)中其他層不同,輸出層的神經(jīng)元一般不會(huì)有激活函數(shù),最后的輸出層大多用于表示分類評(píng)分值。 【DL-CV】激活函數(shù)及其選擇【DL-CV】卷積神經(jīng)網(wǎng)絡(luò) 在介紹了線性分類器,激活函數(shù),損失函數(shù),反向傳播這些基礎(chǔ)的原理后,已經(jīng)可以嘗試自行搭建像樣的神經(jīng)網(wǎng)絡(luò)了。但是由...
閱讀 1506·2021-11-22 13:52
閱讀 1319·2021-09-29 09:34
閱讀 2719·2021-09-09 11:40
閱讀 3041·2019-08-30 15:54
閱讀 1268·2019-08-30 15:53
閱讀 980·2019-08-30 11:01
閱讀 1369·2019-08-29 17:22
閱讀 1961·2019-08-26 10:57