外练筋骨皮,内练一口气,如果想要在互联网行业中生存下去,越来越需要高能力,高素质,已经不是以前的时代了。 宋浩 三部曲之二 ·《线性代数》。
从新学习,并用 mathjax 做笔记。 mathjax html2text 公式及时编辑 在线函数图像
先用考试逼着大家把该学的东西都学了,尽管自己也不知道自己学的是啥;等将来的某一天达到一定高度时,回头看看过去学的东西,突然恍然大悟,明白了当初学的究竟是什么。
这 4 部分数学知识的作用分别是:
完成。
行列式的真正定义:每个单位正方形在线性变换之后的面积。 因此,单位矩阵的行列式当然就为 1,某行全为 0 的行列式显然为 0 (因为某一维度会被无视掉,线性变换会把整个平面压扁), $|A·B|$ 显然等于 $|A|·|B|$ 。 行列式为 0 ,对应的矩阵当然不可逆,因为这样的线性变换已经把平面压成一条线了,什么都不能把它变回去了。 当然,更高阶的矩阵就对应了更高维的空间。
完成。 note
比如三阶: \(D = \begin{vmatrix} a_{11}&a_{12}&a_{13}\\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{vmatrix}\)
\[D = (-1)^{1+1}a_{11}\begin{vmatrix} a_{22}&a_{23} \\ a_{32}&a_{33} \end{vmatrix} + (-1)^{1+2}a_{12}\begin{vmatrix} a_{21}&a_{23} \\ a_{31}&a_{33} \end{vmatrix} + (-1)^{1+3}a_{13}\begin{vmatrix} a_{21}&a_{22} \\ a_{31}&a_{32} \end{vmatrix} \\ =a_{11}\begin{vmatrix} a_{22}&a_{23} \\ a_{32}&a_{33} \end{vmatrix} -a_{12}\begin{vmatrix} a_{21}&a_{23} \\ a_{31}&a_{33} \end{vmatrix} + a_{13}\begin{vmatrix} a_{21}&a_{22} \\ a_{31}&a_{32} \end{vmatrix} \\ = a_{11}a_{22}a_{33} -a_{11}a_{23}a_{32} - a_{12}a_{21}a_{33}+ a_{12}a_{23}a_{31} + a_{13}a_{21}a_{32} - a_{13}a_{22}a_{31}\]转置。
n 个方程,n 个未知量。 求解方程组。
x | 行列式 | 矩阵 |
本质 | 一个数 | 数表 |
符号 | || | ()[] |
形状 | 方的 | 没要求 |
绵绵用力,久久为功。 迷茫、痛苦、失落、受挫、想速成,这些都是正常的,你想做成一件事,心里的渴望和现实的进展之间有了冲突,自然会产生这样的感觉。对于普通人来说,没啥办法,只能是硬磕,一点一点啃,去下笨功夫,根本没有别的办法,等你挺过去了,这些东西就是你的壁垒,别人的高墙。
伴随矩阵:按行求按列放。
任意方阵都有伴随矩阵。
\[\left|A^*\right|=|A|^{n-1}\]左乘行变换,右乘列变换。
真是妙蛙种子吃妙脆角回米奇妙妙屋,妙到家了。
初等行变换。
\[(A, E) \stackrel{\text { 行 }}{\longrightarrow}\left(E, A^{-1}\right)\]秩:非零子式的最高阶数。
而这样推广出来的 —— 就是矩阵的秩序 —— —— 一个描述方程组是否拥有解出未知数组的值的能力。
学到后面的最大线性无关组就容易理解秩了。
行简化阶梯型:
阶梯型矩阵的秩等于非零行的行数(其他矩阵可以用初等变换化为在不改变秩的情况下阶梯型)
看了一晚上的 泛函分析,感觉自己好幸运,没有读到数学专业,一定要更加努力工作,毕竟计算机还是可以勉强应付的。 本来以为考过就好,结果毕业上班,什么线性代数、微积分、概率论,一个也逃不掉,毕业了工作十年翻开大学书慢慢看。 最特别的应该是 线性代数,行列式不知所云,学了 图形学、图像处理、3D 渲染,齐次矩阵、矩阵的秩,再回头看,感叹发明这玩意的就是个天才。 曾经有那么一个时刻,把 支持向量机 理论看懂了,过了几天,嘿 ;-) 又看不懂了。
整体无关 => 部分无关 部分相关 => 整体相关 增加向量个数,会提高线性相关的“可能性”
$\boldsymbol a_1,\boldsymbol a_2,\cdots,\boldsymbol a_m$ 是 $m$ 个向量。
对于方程 $\lambda_1\boldsymbol a_1+\lambda_2\boldsymbol a_2+\cdots+\lambda_m\boldsymbol a_m=\boldsymbol0$,若其有非零解 $(\lambda_1,\lambda_2,\cdots,\lambda_m)\not=\boldsymbol0$,则称 $\boldsymbol a_1,\boldsymbol a_2,\cdots,\boldsymbol a_m$ 线性相关;
若其只有唯一解 $(\lambda_1,\lambda_2,\cdots,\lambda_m)=\boldsymbol0$,则称 $\boldsymbol a_1,\boldsymbol a_2,\cdots,\boldsymbol a_m$ 线性无关。
由此可见,$\boldsymbol0$ 向量和任意向量线性相关。
α1,α2 相关 $<=>$ α1,α2 共线 α1,α2,α3 相关 $<=>$ α1,α2,α3 共面 反之亦然
行秩 = 列秩 = 矩阵的秩 r(A) 完成。
消元:
又学了一遍《线性代数》,以前应试教育, 都不知道自己学的啥玩意,这些年学了《图形学》《机器学习》等课程, 再回头,这不都是同一个玩意吗。
完成。
n 阶对角型矩阵的特征值是主对角线上的元素。
线代得有几何直觉才能真正理解。
是一个特征值对应多个特征向量,一个特征向量对应一个特征值。
互不相同的特征值对应的特征向量, 不论这些特征值中一个对应多少特征向量, 只要这些特征向量接在一起,它们仍然是线性无关的。
入是 A 的特征多项式的 k 重特征值,A 的对应入的线性无关的特征向量最多是 k 个。 k 重特征根对应的线性无关的特征向量的个数 <=k。
教材就搞笑,培养人工计算器。 https://www.bilibili.com/video/BV1e54y1b7CA/ 行列式(二维)对应面积放大倍率。 秩的意义:矩阵变换后的空间维度。矩阵列向量所张成空间的维度(基向量个数)。
特征向量是在该矩阵上 扩大一定倍数还和原来向量共线的向量。
完成。
常用的可逆变换有:等价、相似、合同。
相似 & 相似对角形。
相似性的核心在于 —— 让矩阵变得尽可能简单但同时保留它的必要属性。
内积,点乘。
向量的长度(范数,模)。
\[\|\alpha\|=\sqrt{(\alpha, \alpha)} .\]柯西-施瓦玆不等式 \(|(\alpha, \beta)| \leq\|\alpha\| \cdot\|\beta\|\)
正交,垂直。
正交向量组,不包含零向量。
施密特正交化。 就是减去别的维度的投影。 其实是一个向量减掉在其他向量上的投影,剩下的向量就会垂直于其他向量。 在用这些基底向量线性表示某个向量以后,基底向量前面的系数就是这个向量在这些基底向量张成的空间下的坐标。
正交矩阵。 A 的 n 阶方, \(A^{\top} A=E\)。
如果有 n 阶矩阵 A,其矩阵的元素都为实数,且矩阵 A 的转置等于其本身(aij=aji),(i,j 为元素的脚标),则称 A 为实对称矩阵。
实对称矩阵 A 的不同特征值的特征向量正交。
n 阶实对称矩阵 A 的每个特征值 $\lambda_i$ 的重数 ki 等于对应的 $\lambda_i$ 的线性无关特征向量的个数。
惯性定理:任意一个二次型都可以通过非退化的线性替换化成规范形。
相同的正惯性指数,相同的负惯性指数,相同的秩。
有定的: 正定、半正定、负定、半负定。
顺序主子式。