벡터

    transpose와 dot product에 대하여

    해당 게시물은 "혁펜하임의 AI DEEP DIVE"를 수강하고 작성되었습니다.행렬의 전치(Transpose)란, $\begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \\\end{bmatrix}$ 와 같은 행렬이 주어졌을 때, 행과 열을 바꾸는 것 즉,  $\begin{bmatrix}a_{11} & a_{21} \\a_{12} & a_{22} \\\end{bmatrix}$ 로 바꾸는 것이다. 기호로는 $ {\begin{bmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \\\end{bmatrix}}^T$와 같이 나타낸다. 행렬 전치의 중요한 성질 중 하나는 ${(ax)^T}=x^Ta^T$와 같이 다항식에 전치를 취하면 순서가 바뀐다. 딥러닝에서는..

    백터와 행렬에 대하여

    백터와 행렬에 대하여

    우리는 왜 굳이 행렬을 사용할까?그것은 연립방정식을 간단하게 나타내고, 그것을 풀기 위해서이다. 위 내용과 같이 연립방정식은 행렬로 간단하게 나타낼 수 있다. 행렬의 곱셉에 있어서는 곱해지는 행렬의 열의 개수와 곱하는 행렬의 행의 개수가 같아야 한다.이 때문에 교환법칙은 무조건적으로 만족하지 않는다는 것을 기억하자.  벡터의 경우 놈(norm)에 대해 살펴보면, 딥러닝에서는 주로 l1-norm과 l2-norm을 사용한다.$\begin{bmatrix} 2 & 3 \\ \end{bmatrix}$ 이라는 벡터가 존재할 때 : l1-norm : $|2|+|3|$$\begin{bmatrix}2 & 3 \\\end{bmatrix}$ 이라는 벡터가 존재할 때 : l2-norm : $\sqrt{2^2+3^2}$왜 이름..