• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            O(1) 的小樂

            Job Hunting

            公告

            記錄我的生活和工作。。。
            <2012年11月>
            28293031123
            45678910
            11121314151617
            18192021222324
            2526272829301
            2345678

            統計

            • 隨筆 - 182
            • 文章 - 1
            • 評論 - 41
            • 引用 - 0

            留言簿(10)

            隨筆分類(70)

            隨筆檔案(182)

            文章檔案(1)

            如影隨形

            搜索

            •  

            最新隨筆

            最新評論

            閱讀排行榜

            評論排行榜

            20100906

            1 今天,看了一下avstar的論文。。沒有發現使用foot constraints的方法。。真是崩潰。。

            2 上午上課,矩陣分析與應用。。。。很扯的一節課。。整理了一下課堂講義。。等有時間一起發出來吧。。

            3 晚上聽了一個Convex Optimization的Stanford Course。。。恩,收獲還是挺大的。。。

            4 下午去辦牡丹卡。。

            5 看了一下PCA。。沒搞的太明白。。。明天繼續。。

             

            明日:

            1 論文

            2 PCA

            3 把課程的講義整理一下。。不能白看啊。。

             

            整理的筆記:

            \documentclass[11pt]{article}
            \usepackage{ctex}
            \usepackage{graphicx}
            \usepackage{float}
            \DeclareGraphicsRule{.jpg}{eps}{.bb}{}
            \DeclareGraphicsRule{.png}{eps}{.bb}{}

            \begin{document}

            \title{Matrix Analysis and Application}
            \author{Sosi}
            \maketitle
            \section{Jacobian and Hessian Matrix}
            \begin{enumerate}
            \item Jacobian Matrix\\
            the Jacobian matrix is the matrix of all first-order partial derivatives
            of a vector or scalar-value function with respect to another vector. Suppose
            $F:R^n \rightarrow R^m $is a function from Euclidean n-space to Euclidean m-space.Such a function is given by $m$ real-value component function,$y_1(x_1,...,x_n),...,y_m(x_1,...,x_n)$.The partial derivatives of
            all these functions (if they exit) can be organized in a $m-by-n$matrix,the Jacobian matrix $J$ of $F$,as follows:
            \begin{displaymath}
            \mathbf{X} =
            \left( \begin{array}{ccc}
            x_{11} & x_{12} & \ldots \\
            x_{21} & x_{22} & \dots  \\
            \vdots & \vdots & \ddots
            \end{array} \right)
            \end{displaymath}
            \begin{displaymath}
            \mathbf{J} =
            \left( \begin{array}{ccc}
            \frac{ \partial y_1}{ \partial x_1}
            & \ldots  &
            \frac{{\partial}y_1}{{\partial} x_n} \\ %求導使用的是\prime  偏導使用的是\partial
            \vdots & \ddots &\vdots\\
            \frac{ {\partial} y_m}{ {\partial} x_1}
            & \ldots   &
            \frac{ {\partial} y_m}{ {\partial} x_n}
            \end{array}
            \right)
            \end{displaymath}

            \item Hessian Matrix\\
            in mathematics, the Hessian matrix is the square matrix of second-order
            partial derivatives of a function; that is, it describes the local curvatrue of a function of many variables.The Hessian matrix was developed in the 19th century by the German mathematician Hesse and later named after him.
            \begin{displaymath}
            \mathbf{H(f)} =
            \left( \begin{array}{cccc}
            \frac{ \partial ^2 f}{ \partial x_1^2}
            &
            \frac{ \partial ^2 f}{ \partial x_1 \partial x_2}
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_1 {\partial}x_n} \\ %求導使用的是\prime  偏導使用的是\partial
            \frac{ \partial ^2 f}{ \partial x_2{\partial}x_1}
            &
            \frac{ \partial ^2 f}{ \partial x_2^2 }
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_2 {\partial}x_n} \\
            \vdots &\vdots\ \ddots &\vdots\\
            \frac{ \partial ^2 f}{ \partial x_n{\partial}x_1}
            &
            \frac{ \partial ^2 f}{ \partial x_n \partial x_2}
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_n^2} \\
            \end{array}
            \right)
            \end{displaymath}
            Hessian matrices are used in large-scale optimization problems with Newton-type methods because they are the coefficient of the quadratic term of a local Taylor expansion of a function.That is

            \begin{displaymath}
            y=f(x+\Delta x)\approx f(x)+J(x)\Delta x +\frac{1}{2}\Delta x^TH(x)\Delta x
            \end{displaymath}
            \end{enumerate}

            \section{對稱矩陣性質}
            一種對稱矩陣的定義方法:
            \begin{displaymath}
            Ax=\bigtriangledown f(x)    \\f(x)=\frac{x^TAx}{2}
            \end{displaymath}

            \section{證明}
            有限維線性空間任意兩個極大無關組所含向量個數相同\\
            證明:
            $ (x_1,...,x_n)=(y_1,...,y_m)A $\\
            $(y_1,...,y_m)=(x_1,...,x_n)B$\\
            $(y_1,...,y_m)= (y_1,...,y_m)AB$\\
            $AB=E_n$\\
            $BA=E_m$\\
            $tract(AB)=trace(BA)$\\
            $m=n$\\

            \section{性質}
            過渡矩陣非奇異\\
            A為奇異矩陣的定義是:存在非零n維向量使得$Ax=0$
            \end{document}

            posted on 2010-09-06 22:15 Sosi 閱讀(126) 評論(0)  編輯 收藏 引用

            統計系統
            超级碰久久免费公开视频| 久久久无码一区二区三区| 国产精品久久久久久| av无码久久久久不卡免费网站| 久久天天躁狠狠躁夜夜avapp| 少妇久久久久久被弄高潮| 国产精品久久久久9999高清| 亚洲精品乱码久久久久久蜜桃 | 久久国产影院| 777午夜精品久久av蜜臀 | 亚洲国产另类久久久精品小说| 久久99精品国产麻豆| 久久精品国产亚洲av麻豆图片 | 久久午夜福利电影| 999久久久无码国产精品| 亚洲人成无码www久久久| 国产精品免费久久久久久久久| 亚洲中文字幕无码久久2017| 久久99精品久久久久久齐齐| 色8久久人人97超碰香蕉987| 7777精品伊人久久久大香线蕉| 国产三级观看久久| 国产成人精品久久一区二区三区av | 欧美日韩精品久久久久| 亚洲成av人片不卡无码久久| 久久有码中文字幕| 久久精品国产精品亚洲下载| 精品人妻伦九区久久AAA片69| 久久精品无码一区二区三区| 99国内精品久久久久久久| 久久av高潮av无码av喷吹| 久久久国产视频| 99久久国产综合精品麻豆| 99热热久久这里只有精品68| 久久精品亚洲乱码伦伦中文| 精品久久久无码21p发布| 久久99精品国产99久久| 2019久久久高清456| 亚洲精品国产成人99久久| 欧美黑人激情性久久| 久久天天躁狠狠躁夜夜躁2014|