亚洲男人天堂av,国产一区二区久久精品,国产精品一区二区久久精品,国产精品久久久久久一区二区三区,五月婷婷在线观看视频,亚洲狠狠色丁香婷婷综合

歡迎您訪問行列式是什么 深度學(xué)習(xí)中的核心方法:坐標變換與表示學(xué)習(xí)!

行列式是什么 深度學(xué)習(xí)中的核心方法:坐標變換與表示學(xué)習(xí)

更新時間:2024-08-19 09:48:13作者:佚名

在數(shù)學(xué)、物理和工程領(lǐng)域,將問題轉(zhuǎn)化為更易于表達、分解和計算的坐標系是一種核心方法:SVD、譜分解、傅里葉變換和拉格朗日力學(xué)都是如此,其重要性遠遠超出一般認知。深度學(xué)習(xí)如此受歡迎的重要原因行列式是什么,就是通過表示學(xué)習(xí),將高維數(shù)據(jù)映射到合適的低維特征空間。

行列式是高中還是大學(xué)學(xué)的_行列式是什么_行列式是一個數(shù)值嗎

在反向傳播中,神經(jīng)元輸出相對于輸入的局部敏感度是偏導(dǎo)數(shù)

來源:~srihari/CSE574/Chap5/Chap5.3-BackProp.pdf

在映射過程中,描述不同函數(shù)變量之間變化速度的導(dǎo)數(shù)非常重要。雅可比矩陣提供了一種表達局部輸出對輸入敏感度的方法。神經(jīng)網(wǎng)絡(luò)的BP反向傳播依靠誤差與權(quán)重之間的偏導(dǎo)數(shù)關(guān)系來訓(xùn)練權(quán)重。神經(jīng)網(wǎng)絡(luò)的權(quán)重有幾萬個,代價函數(shù)對哪些權(quán)重的變化敏感。毫無疑問,那些權(quán)重更為重要。雅可比矩陣為分析神經(jīng)網(wǎng)絡(luò)的輸入輸出行為提供了一個數(shù)學(xué)框架。當(dāng)然,雅可比的應(yīng)用極其廣泛,機器學(xué)習(xí)只是冰山一角。

目錄

坐標變換

一維變量替換

雅可比矩陣

雅可比行列式

神經(jīng)網(wǎng)絡(luò) BP 誤差反向傳播

雅可比正則化

行列式是高中還是大學(xué)學(xué)的_行列式是一個數(shù)值嗎_行列式是什么

關(guān)于卡爾·雅各布·雅各比

01

坐標變換

坐標變換的原因之一是為了方便積分。當(dāng)被積函數(shù)為復(fù)數(shù)時,變量代換往往可以簡化問題。例如,對圓形面積進行積分時,極坐標比笛卡爾坐標更方便。有時被積函數(shù)為復(fù)數(shù),變量代換可以降低復(fù)雜度。坐標變換的思想可以進一步擴展到任何自定義變量代換坐標系:

例如,對下面四條直線圍成的平行四邊形的面積求積分,四條直線的方程為:。

行列式是高中還是大學(xué)學(xué)的_行列式是一個數(shù)值嗎_行列式是什么

引入新變量: ,兩條斜線變?yōu)?,兩條水平線變?yōu)?。顯然,在矩形區(qū)域上積分比在平行四邊形區(qū)域上積分更方便。

行列式是高中還是大學(xué)學(xué)的_行列式是一個數(shù)值嗎_行列式是什么

02

一維變量替換

讓我們以一個簡單的 1D U-Substitution 玩具案例為例來回顧一下變量替換過程。

推導(dǎo):

行列式是什么_行列式是高中還是大學(xué)學(xué)的_行列式是一個數(shù)值嗎

順序:,然后,

然后將其推廣到更一般的代換情況:對于 ,這意味著當(dāng)對 作出一個微小的擾動時,相應(yīng)的 的變化與 呈線性關(guān)系。同時,定積分的上下限也要作相應(yīng)的調(diào)整: ,其中出現(xiàn)了一個比例因子,也就是導(dǎo)數(shù),它是單變量下的雅可比矩陣,可以理解為 。

注意:這和我們通常看到的方向相反,為了和多變量下的形式保持一致,比如上例中的總和。

03

雅可比矩陣

在多變量的情況下,坐標變換描述的是從 到 的連續(xù)一一變換。注意,這是獨立變量,它是上面帶有獨立變量的函數(shù)的反函數(shù)。可以看出,雅可比矩陣可以是雙向的,一般從積分較難的方向指向積分較容易的方向。

矩陣形式為:

,在

這是雅可比矩陣。

假設(shè)在映射中,輸入為,輸出為。雅可比矩陣告訴我們:如果

是位移矢量,則

是相應(yīng)坐標變換后空間中的位移矢量

行列式是什么_行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的

這是 的最佳一階近似,這是一階泰勒公式近似思想在坐標變換中的體現(xiàn)。

我們來看看下面的方向:

行列式是一個數(shù)值嗎_行列式是什么_行列式是高中還是大學(xué)學(xué)的

從 UV 平面到 XY 平面的坐標變換

假設(shè)我們對坐標系中位于的點進行擾動,并分別將其增大,以得到一個很小的面積。現(xiàn)在考慮坐標系中擾動所對應(yīng)的變化:,。

在坐標中,平行四邊形的面積是兩個邊向量叉積的大小:

04

雅可比行列式

此時,雅可比矩陣是一個方陣,而相應(yīng)的雅可比行列式計算的是給定矩陣的線性變換的比例因子,告訴我們該變換是空間放大還是縮小貝語網(wǎng)校,并且這個因子對于空間的任何區(qū)域都是不變的(行列式)。

行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的_行列式是什么

行列式等于矢量包圍的面積或體積

這就是雅可比行列式,或者簡稱為“雅可比”。

行列式是高中還是大學(xué)學(xué)的_行列式是什么_行列式是一個數(shù)值嗎

在上面的平行四邊形變成矩形的例子中:

這意味著平行四邊形和矩形的積分按 1 倍縮放。

05

神經(jīng)網(wǎng)絡(luò) BP 誤差反向傳播

行列式是什么_行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的

雅可比矩陣用于神經(jīng)網(wǎng)絡(luò)中反向傳播誤差信號時。來源:PRML

BP反向傳播是最經(jīng)典的神經(jīng)網(wǎng)絡(luò)權(quán)重訓(xùn)練方法,至今仍是最重要的方法。BP算法還有另外一個名字——“總是尋求偏導(dǎo)數(shù)”。在將誤差信號前向傳遞到輸入層的過程中,權(quán)重被調(diào)整/學(xué)習(xí)。上圖中,紅色模塊對應(yīng)需要計算的雅可比矩陣,公式如下:

,其中是估計值。

前面我們提到,行列式的值告訴我們空間是在膨脹還是在收縮。如果輸出空間在輸入空間的某個輸入點處大大膨脹,則意味著神經(jīng)網(wǎng)絡(luò)在這個區(qū)域可能有些不穩(wěn)定,輸入中的任何擾動都可能導(dǎo)致輸出出現(xiàn)巨大的波動。相反,如果行列式相對較小,則輸入的變化對輸出的影響就很小。

神經(jīng)網(wǎng)絡(luò)的雅可比矩陣的計算過程為:輸入向量在神經(jīng)網(wǎng)絡(luò)中經(jīng)過前向傳播,得到所有輸出層和隱含層的激活值,對輸出單元進行反向傳播,對應(yīng)雅可比矩陣中的行,向輸入層反向傳播。計算結(jié)果可以用數(shù)值方法驗證:。

06

雅可比正則化

行列式是高中還是大學(xué)學(xué)的_行列式是什么_行列式是一個數(shù)值嗎

參考:基于雅可比正則化的穩(wěn)健學(xué)習(xí)

近年來,雅可比矩陣被應(yīng)用于正則化。與正則化不同,雅可比正則化關(guān)注的是神經(jīng)網(wǎng)絡(luò)對輸入波動的魯棒性。你可能對對抗樣本很熟悉。少量的長臂猿梯度(中)混入了一張熊貓圖片(左),導(dǎo)致分類算法錯誤地將圖片識別為置信度為 99.3% 的長臂猿(右)。

行列式是什么_行列式是高中還是大學(xué)學(xué)的_行列式是一個數(shù)值嗎

Jacobian Regularization 的思想很簡單,Jacobian 矩陣中的值越小,表示輸入空間的微小波動對輸出空間的影響越小。具體來說,它取 Jacobian 矩陣的 Frobenius 范數(shù),也就是矩陣所有元素之和的平方根。

07

關(guān)于卡爾·雅各布·雅各比

行列式是一個數(shù)值嗎_行列式是什么_行列式是高中還是大學(xué)學(xué)的

卡爾·古斯塔夫·雅可比(1804 – 1851)

雅可比矩陣和行列式是由德國數(shù)學(xué)家卡爾·古斯塔夫·雅各布·雅可比(1804-1851)提出的,他對橢圓函數(shù)、動力學(xué)、微分方程、行列式和數(shù)論做出了重要貢獻。他推動了偏微分符號的廣泛使用行列式是什么,只要看一眼雅可比公式就能知道原因。不要把它與學(xué)術(shù)巨人雅各布·伯努利(1654-1705)混淆。

行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的_行列式是什么

以雅各布命名的月球隕石坑

行列式是什么_行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的
行列式是高中還是大學(xué)學(xué)的_行列式是什么_行列式是一個數(shù)值嗎

行列式是高中還是大學(xué)學(xué)的_行列式是什么_行列式是一個數(shù)值嗎

本文目的在于學(xué)術(shù)交流,并不代表本公眾號贊同其觀點或?qū)ζ鋬?nèi)容真實性負責(zé),版權(quán)歸原作者所有,如有侵權(quán)請告知刪除。

強基固本”歷史文章


更多強基固本專欄文章,

請點擊文章底部“閱讀原文”查看


行列式是什么_行列式是一個數(shù)值嗎_行列式是高中還是大學(xué)學(xué)的
行列式是一個數(shù)值嗎_行列式是什么_行列式是高中還是大學(xué)學(xué)的


分享、點贊、在看,給個三連擊唄!

為您推薦

龍招港 黑龍江省 2018 年高考公布成績及填報志愿時間確定,考名校選海風(fēng),升學(xué)考試 0

龍招港6月13日黑龍江省招生考試信息港發(fā)布《我省2018年高考公布成績及填報志愿時間確定》通知,真可謂是千呼萬喚始出來啊!高考成績公布后采取網(wǎng)上填報志愿方式,分三次填報高考志愿。考生登錄黑龍江省招生考試信息港(),按照相關(guān)填報說明填報志愿。

2024-08-19 09:50

行列式是什么 深度學(xué)習(xí)中的核心方法:坐標變換與表示學(xué)習(xí)

function對哪些權(quán)重的變化敏感,無疑那些權(quán)重是更重要的,Jacobian矩陣就提供了一個分析神經(jīng)網(wǎng)絡(luò)輸入-輸出行為的數(shù)學(xué)框架。的最佳一階近似,這是一階泰勒公式近似的思想在坐標變換中的體現(xiàn)。他推動了偏微分符號的廣泛使用,只要看一眼Jacobian公式就知道原因了。

2024-08-19 09:46

行列式是什么 深度學(xué)習(xí)中的核心方法:坐標變換與表示學(xué)習(xí)

function對哪些權(quán)重的變化敏感,無疑那些權(quán)重是更重要的,Jacobian矩陣就提供了一個分析神經(jīng)網(wǎng)絡(luò)輸入-輸出行為的數(shù)學(xué)框架。的最佳一階近似,這是一階泰勒公式近似的思想在坐標變換中的體現(xiàn)。他推動了偏微分符號的廣泛使用,只要看一眼Jacobian公式就知道原因了。

2024-08-19 09:44

2024 年湖北高考成績 6 月 25 日公布,查詢及復(fù)核辦法看這里

6月20日,湖北省教育考試院、湖北省招辦發(fā)布高考成績公布時間及查詢辦法,以及成績復(fù)核時間及辦法。

2024-08-18 17:31

2024 年湖北高考成績 6 月 25 日公布,查詢及復(fù)核辦法看這里

6月20日,湖北省教育考試院、湖北省招辦發(fā)布高考成績公布時間及查詢辦法,以及成績復(fù)核時間及辦法。

2024-08-18 17:29

武漢 2 本專科院校排名:湖北省二本大學(xué)及專科學(xué)校排名一覽

湖北省二本大學(xué)排名,希望能幫助到廣大考生和家長,一起來看看吧!武漢專科學(xué)校排名武漢民辦二本最好學(xué)校排名武漢民辦二本最好學(xué)校排名如下:。武漢工商學(xué)院是一所由教育部批轉(zhuǎn)設(shè)立的民辦本科院校。湖北省二本大學(xué)排名湖北省二本大學(xué)排名理科湖北湖北省二本大學(xué)排名文科

2024-08-18 16:41

加載中...
主站蜘蛛池模板: | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |