[๋ฅ๋ฌ๋๊ณผ ์ค๊ณ] Unsupervised Learning ๋น์ง๋ํ์ต๊ธฐ์ด
๋ณธ ๊ฒ์๊ธ์ ๋ค์ ๊ฐ์๋ฅผ ๋ฃ๊ณ ์ ๋ฆฌํ ๋ด์ฉ์ ๋๋ค.
https://www.youtube.com/watch?v=V9HcvXliJmw&list=PLQASD18hjBgyLqK3PgXZSp5FHmME7elWS&index=6
# Basic Probability
supervised learning๊ณผ ๋ค๋ฅด๊ฒ unsupervised learning์์๋
'ํ๋ฅ '์ ๋ํ ๊ฐ๋ ์ด ๋ง์ด ๋์ค๊ธฐ ๋๋ฌธ์ ์ด๋ฅผ ๋ค์ ๊ณต๋ถํ๊ณ ๋์ด๊ฐ ํ์๊ฐ ์๋ค.
-
(์กฐ๊ฑด๋ถ ํ๋ฅ ex.)
$ p(x1,x2,x3) = p(x1|x2, x3) * p(x2|x3) * p(x3) $
-
(์ ์ฒด ํ๋ฅ ์ ๋ฒ์น)
$ p(y) = \sum_{x} p(x,y) = \sum_{x} p(y|x)p(x) $
์ด๊ฑธ ์ฐ์์ ์ธ data์ ๋ํด ์์ ์ ํ์ ๋๊ฐ (Marginalization)
-
pmf ๊ฒฝ์ฐ์๋ discreteํ ๊ฒฝ์ฐ (ex. ์ฃผ์ฌ์ ๋์ง๊ธฐ), pdf๋ continuousํ ๊ฒฝ์ฐ (ex. 0-1์ฌ์ด์ ์ค์ ๋ฝ๊ธฐ)์ ์ฌ์ฉ๋จ.
pdf์ธ ๊ฒฝ์ฐ์๋ y์ถ์ด ์๋๋ผ, ๋ฉด์ ์ด ํ๋ฅ ์ ์๋ฏธํ๋ค.
๊ทธ๋์ single ๊ฐ์ ๋ํ ํ๋ฅ ์ ๊ตฌํ ์ ์๊ณ ($P(a) = ?$ -> x), ๋ฒ์์ ๋ํ ํ๋ฅ ๋ง์ ๊ตฌํ ์ ์๋ค.
(Gaussian Distribution)
ํ๋ฅ ๋ถํฌ๋ฅผ ๋ํ๋ด๋ ํ๋ผ๋ฏธํฐ: $\mu, \sigma$
1์ฐจ์์ด ์๋ ์ฐจ์์ด ํฐ ๊ฒฝ์ฐ์๋ ์๋์ ํ์ฅ๋ ์์ ์จ์ฃผ๋ฉด ๋๋ค.
(Bernoulli Distribution)
๋์ ๋์ง๊ธฐ ๊ท์น์์ ๋ณธ ํ๋ฅ ๋ถํฌ์ ๊ฐ๊ณ , ํ๋ผ๋ฏธํฐ๋ ์ค์ง $p$ ํ๊ฐ ๋ฟ์ด๋ค.
-
๋น์ง๋ํ์ต์์๋ ํ๋ฅ ๋ถํฌ $P$์ $Q$๊ฐ ๊ฐ์ผ๋ ๋ค๋ฅด๋๋ฅผ ๊ณ์ํด์ ๋น๊ตํ๋ค.
์ผ๋ฐ์ ์ผ๋ก $P$๋ ์ค์ true, $Q$๋ ์์ธก estimate๋ฅผ ์๋ฏธํ๋ค.
๋ฐ๋ผ์, ์ด ๋ ์ฌ์ด์ ํ๋ฅ ๋ถํฌ๋ฅผ ์ค์ฌ๋๊ฐ๋ ๋ฐฉ๋ฒ์ผ๋ก ์งํํ๋ค.
(Cross-entropy)
cross-entropy๊ฐ ์์ผ๋ฉด ์์์๋ก $P$์ $Q$๊ฐ ์ ์ฌํด์ง๋ ๊ฒ
๋ฐ๋ผ์, ์๊ฒ ๋ง๋๋ ๊ฒ์ด ์ฐ๋ฆฌ์ ๋ชฉํ์ด๋ค.
(Kullback-Leibler divergence(KLD))
$KL(P||Q)$์ $KL(Q||P)$๊ฐ ๊ฐ์๊น ๋ค๋ฅผ๊น? ๋น์ฐํ ๋ค๋ฅด๋ค.
์์๋ฅผ ๋ฌ๋ฆฌํ ๋ ๊ทธ ๊ฐ์ด ๋ค๋ฅด๋ค?
์ด๋ฅผ ๋ณด์ํ๊ธฐ ์ํด ๋์จ ๊ฒ์ด ๋ฐ๋ก ์๋์ ๋น๊ต ๋ฐฉ๋ฒ์ด๋ค.
(Jenson-Shannon divergence(JSD))
$P$์ $Q$๋ฅผ directํ๊ฒ ๋น๊ตํ์ง ์๊ณ ์ค๊ฐ์ $M$์ ๋ฌ์
$P$์ $M$์ ๋น๊ตํ๊ณ , $M$๊ณผ $Q$๋ฅผ ๋น๊ตํ๋ ๋ฐฉ๋ฒ
์ด๋ ๊ฒ ํ๋ฉด ์์๋ฅผ ๋ฐ๊ฟ๋ ๋์ผํ๊ฒ ๋๋ ๊ฒ์ด๋ค
๊ทธ๋ฆฌ๊ณ ๊ฐ๊ฐ์ ๊ธฐ๋๊ฐ์ ๊ตฌํ๋ ์์ ๋ค์๊ณผ ๊ฐ๋ค.
๋งจ ์๋ ์๊ณผ ๊ฐ์ด ํ๋ฅ ๋ถํฌ๋ฅผ ์ง์ ์ ์ํด์ฃผ๋ ๊ฒฝ์ฐ๋ ์๋ค.
$x$๊ฐ ์ฃผ์ด์ก์ ๋ $y$๊ฐ ๋์ค๋ ํ๋ฅ ์ ์ต๋ํํ๊ธฐ ์ํด
์ด์ ๋ํด ์ต์ ํํ๋ learnable parameter $\theta$๋ฅผ ๊ตฌํ๋ ๊ณผ์ ์ด๋ค.
๊ทธ๋ฆฌ๊ณ $\theta$์ ํ๋ฅ ๋ถํฌ๋ Neural Network๋ก ํํ๋ ์ ์๋ค.
# Maximum Likelihood
๊ณ ์ ์ ์ธ ML์์๋
๊ธฐ์กด์ ์ ๋ต๊ฐ์ธ $y$์ ์์ธก๊ฐ์ธ $f_{\theta}(x)$๋ฅผ ์ค์ฌ๋๊ฐ๋ ๋ฐฉ์์ผ๋ก ๋ชจ๋ธ์ ํ์ตํ๋ค.
์ด๋, $\theta$๋ $W, b$์ ๊ฐ์ parameter์ด ๋๋ ๊ฒ์ด๋ค.
DNN์์๋ backpropagation์ ์ํด ์๋ ๋ ์กฐ๊ฑด์ด ์๋ค.
(1) training data์ ๋ํ DNN์ loss๊ฐ์ ๊ฐ training sample์ ๋ํด loss์ ํฉ๊ณผ ๊ฐ๋ค -> $\sum$ ์ฌ์ฉ
(2) ๊ฐ training example์ ๋ํ loss๋ DNN์ ์ต์ข output ๊ฒฐ๊ณผ์ด๋ค. -> ์ค๊ฐ์ ๋์จ ๊ฐ x, ์ต์ข ๊ฐ์ผ๋ก!
Maximum Likelihood์ ๊ด์ ์
์ด์ ์์ธก๊ฐ $f_{\theta}(x)$๋ ์ด์ ์ฒ๋ผ ํ๋์ ๊ฐ์ด ์๋๋ผ 'ํ๋ฅ ๋ถํฌ'๋ก ๋์จ๋ค.
์ฆ, ์์ ์๋ ์์ธก๊ฐ $f_{\theta}(x)$๊ณผ ์ค์ GT๊ฐ์ธ $y$๊ฐ์ ๋น๊ตํด ์ฐจ์ด๋ฅผ ์ค์ฌ๋๊ฐ๋ ค๊ณ ํ๋ค๋ฉด
์ด์ ๋ $f_{\theta}(x))$๋ผ๋ ํ๋ฅ ๋ถํฌ๊ฐ ์ฃผ์ด์ก์ ๋ $y$๊ฐ ๋์ฌ ํ๋ฅ ์ ๋์ด๊ธฐ ์ํด $p(y|f_{\theta}(x))$ ์์ ์ฌ์ฉํ๋ค.
-
์กฐ๊ธ ๋ ์๊ฐ์ ์ผ๋ก ์ดํดํด๋ณธ๋ค๋ฉด, ์๋ ๋๊ฐ์ ์ ๊ท๋ถํฌ ๊ทธ๋ํ์ฒ๋ผ
$\theta$๊ฐ์ ๋ฐ๋ผ์ $f_{\theta}(x)$์ ๋ถํฌ๊ฐ ๋ฌ๋ผ์ง๋ ๊ฒ์ด๊ณ ,
์ด๋ค ์ค์์ negative log-likelihood๋ฅผ ํตํด ์ฃผ์ด์ง ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ฅ ์ ์ค๋ช ํ๋ ๋ชจ๋ธ์ ์ฐพ๋ ๊ณผ์ ์ด๋ค.
-
์ด ๊ฒฝ์ฐ์๋ ๊ณ ์ ์ ๋ ฅ, ๊ณ ์ ์ถ๋ ฅ์ด ์๋
๊ณ ์ ์ ๋ ฅ์ผ๋ก๋ถํฐ ์ป์ด์ง ํ๋ฅ ๋ถํฌ๋ฅผ ํตํด ์ํ๋ง์ ํ๊ธฐ ๋๋ฌธ์ ์ถ๋ ฅ ๊ฒฐ๊ณผ๊ฐ ๋ค๋ฅด๊ฒ ๋๋ค.
์กฐ๊ธ ๋ ์์ธํ ์ดํด ๋ณด๋ฉด,
๊ณ ์ ๋ $y$๊ฐ์ ๋ํด์ ํ๋ฅ ๋ถํฌ์ ๊ฐ์ $\theta_{1}$๊ฐ $\theta_{2}$๋ณด๋ค ์ข์ ๊ฒ์ ์ ์ ์๋ค.
๊ทธ๋ ๋ค๊ณ ํด์ ์์ best์ด๋? ๊ทธ๊ฒ์ ์๋๋ค
$y$๋ฅผ ํ๊ท ์ผ๋ก ํ๋ ํ๋ฅ ๋ถํฌ์ผ ๋ (๋ณด๋ผ์) ์ต๋์ผ ๊ฒ์ด๋ค!
์ด์ ๋ $max_{\theta} p(y|f_{\theta}(x))$์ $argmin[-log(p(y|f_{\theta}(x)))]$์ ์ฐจ์ด์ ๋ํด ์์๋ณด์.
๋์ ์ด๋ค ์ฐจ์ด๊ฐ ์๋๊ฐ? ์ ์ต๋์์ ์ต์๋ก ๋ฐ๋ ๊ฒ์ธ๊ฐ?
์ผ๋จ iid (independent and identically distributed)๋ผ๋ ๊ฐ์ ์ ํ๋ค.
(1) ๋ ๋ฆฝ์ independent -> ๊ฐ ํ๋ฅ ์ ๊ณฑ๊ณผ ๊ฐ๋ค
์ฆ, ์์ ์ฌ๊ฑด์ด ๋ค์ ์ฌ๊ฑด์ ์ํฅ์ ์ฃผ์ง ์๋ ๊ฒ์ด๋ค
(ex. ์ฒซ๋ฒ์งธ ๋์ง ์ฃผ์ฌ์์ ๊ฒฐ๊ณผ๋ ๋ค์ ์ํฅ์ ์ฃผ์ง ์์)
(2) ๋์ผ๋ถํฌ identically distributed -> ๋ชจ๋ ๋ฐ์ดํฐ์ ํ๋ฅ ๋ถํฌ๋ ๊ฐ๋ค
์ฆ, ์์ ์ฌ๊ฑด์์์ ํน์ ์ฌ๊ฑด์ด ๋ฐ์ํ ํ๋ฅ ๊ณผ ๋ค์ ์ฌ๊ฑด์์ ๋ฐ์ํ ํ๋ฅ ์ ๋์ผํ๋ค
(ex. ์ฒซ๋ฒ์งธ ์ฃผ์ฌ์๋ฅผ ๋์ก์ ๋ 1์ด ๋์ฌ ํ๋ฅ ์ 1/6, ๋๋ฒ์งธ๋ ๋ง์ฐฌ๊ฐ์ง๋ค.)
-
Q. ์ log๋ฅผ ์ทจํ๋ ๊ฒ์ด๋?
A. backpropagation์ ํ๊ธฐ ์ํด์๋ ๋ฏธ๋ถ์ ํด์ผ ํ๋๋ฐ ๊ณฑ์ ๋ณด๋ค๋ ๋ง์ ์ ๋ฏธ๋ถ์ด ๋ ๊ฐ๋จํ๊ธฐ ๋๋ฌธ!
๋ค์ ๋ณต์ตํด๋ณด๋ฉด,
y์ ํ๋ฅ ๊ฐ์ ์ต๋๋ก ํ๋ ํ๋ฅ ๋ถํฌ ํ๋ผ๋ฏธํฐ $\theta$๋ฅผ ์ฐพ๋ Maximum Likelihood์์ ์์ํ์ฌ
๋ฏธ๋ถ์ ์ฝ๊ฒ ํ๊ธฐ ์ํด ๋ง์ ->๊ณฑ์ ์ผ๋ก ๋ฐ๊ฟ์ฃผ๋ ๊ณผ์ ์ธ Negative log-likelihood๋ก ๋ณํํ๋ค.
๊ทธ๋ฆฌ๊ณ ๊ฐ๊ฐ์ training sample์ ๋ํด loss๋ฅผ ๋ํด์ฃผ๋ Sum of loss for each training sample์ ๊ฑฐ์น๋ค.
์ด๋, Likelihood์ ๋ถํฌ๋ฅผ ๊ฐ์ ํ๋ ๊ฒ์ด ์ค์ํ๊ณ , ๋ถํฌ์ ๋ฐ๋ผ loss๋ฅผ ๊ตฌํ๋ ๋ฐฉ๋ฒ๋ ๋ฌ๋ผ์ง๋ค.
์์ธํ ๊ณผ์ ์ ๋ํด์๋ ์๋์์ ์ดํด๋ณผ ์ ์๋ค.
Gaussian distribution์ผ ๋,
์ฌ๊ธฐ์ $\sigma = 1$๋ก ๊ณ ์ ์ ํด๋๋ฉด ์์ ์ ๊ฐ ๊ณผ์ ์ ์์ ๊ฐ๋ค.
์ฆ, $-log(p(y_{i} | \mu_{i}))$๋ $(y_{i}-f_{\theta}(x_{i}))^2/2$์ ๋ฐ๋ผ ๊ฒฐ์ ์ด ๋๋ค.
๊ทธ๋ฆฌ๊ณ ์ด๊ฒ์ ์ค์ ๊ฐ๊ณผ ์์ธก๊ฐ ์ฌ์ด์ ์ ๊ณฑ์ฐจ๋ฅผ ๊ตฌํ๊ณ 2๋ก ๋๋๋ MSE์ ์๊ณผ ๋์ผํ๋ค.
Bernoulli distribution์ผ ๋,
์์ ์ ๊ฐ ๊ณผ์ ์ ๋ฐ๋ผ๊ฐ๋ค ๋ณด๋ฉด Cross Entropy์ ๋์ผํ๋ค๋ ๊ฒ์ ํ์ธํ ์ ์๋ค.
# Generative Models
์ด์ ์ด๋ฐ ์๊ฐ์ ํด๋ณผ ์ ์๋ค.
์ง๊ธ๊น์ง๋ ๋ฐ์ดํฐ์ ์์ฑ์ ํ์ ํด ๋ถ๋ฅ ๋ชจ๋ธ์ ๋ง๋ค์๋๋ฐ
์ค์ ๋ก๋ ์์ฑ์ ํด์ผ ์ ๋๋ก ๋ฐ์ดํฐ๋ฅผ ์ดํดํ๋ค๊ณ ํ ์ ์์ง ์์๊น?
์์ด๋์ด๋ ์ฌ์ง๋ค์ uniformํ ๋ถํฌ๋ฅผ ๊ฐ๋ ๊ฒ์ด ์๋, ์ด๋ ํ ํ๋ฅ ๋ถํฌ๋ฅผ ๊ฐ๊ณ ์๋๋ฐ
๊ฑฐ๊ธฐ์ sampling์ ํ๋ฉด ์ค์ ์ฌ์ง๋ค์ด ์ฌ์ง์ ์ป์ ์ ์๋ค.
์ค์ ์ฌ๋๋ค ์ผ๊ตด์ ๋ํ pdf์ด๋ค.
generative model์ ๋ชฉ์ ์ $p_{model}(x)$๋ฅผ $p_{data}(x)$์ ๊ทผ์ฌํ๊ฒ ํ์ต์ ํ๋ ๊ฒ์ด๋ค.
์ด๋ฅผ ์ํด์, $p_{model}(x)$์ ๋ํ distribution์ gaussian์ด๋ผ๊ณ ๊ฐ์ ํ๋.. explicitํ๊ฒ ํํํ๋ ๊ฒฝ์ฐ๊ฐ ์๊ณ
์์ ํํํ์ง ์๋ implicitํ ๋ฐฉ๋ฒ ๋ํ ์กด์ฌํ๋ค.
distribution์ ๋ํด ๊ฐ์ ํ๋ ๋ํ์ ์ธ ์๋ VAE์ด๊ณ , ๊ทธ๋ ์ง ์์ ๋ฐฉ๋ฒ์ GAN์ด๋ค.
๊ทธ๋ผ ์ Generative model์ด ํ์ํ ๊น?
์๊ฐ์ ๋ฐ๋ฅธ ๋ฐ์ดํฐ๋ฅผ ๋ง๋ฆ์ผ๋ก์จ simulation๊ณผ planning์ ํ ์ ์๊ณ
๋ฌด์๋ณด๋ค๋ ์ฐจ์ ์ถ์์ธ Dimensionality Reduction์ ํ ์ ์๋ค๋ ๊ฒ์ด๋ค.
๋ํ์ ์ธ ์์๋ก๋ Manifold Learning์ด ์๋ค.
# Dimensionality Reduction
์ฐจ์์ ์ ์ฃผ๋, ์ฐจ์์ด ์ฆ๊ฐํ ์๋ก ๊ทธ ์ฐจ์์ ์ค๋ช ํ๋๋ฐ ํ์ํ ๋ฐ์ดํฐ์ ๊ฐ์๊ฐ ๋๋ฌด ๋ง์์ง๋ค๋ ํ๊ณ๊ฐ ์๋ค.
๊ทธ๋ฌ๋ ์ค์ ๋ฐ์ดํฐ ๋ถํฌ๋ฅผ ๋ดค๋๋,
๋ง์ ๊ฒฝ์ฐ ๊ณ ์ฐจ์์ ๋๋ถ๋ถ์ด ๋น์ด์๊ณ ํน์ ์ ์ฐจ์์ manifold์ ์์นํด ์๋ ๊ฒ์ ํ์ธํ ์ ์์๋ค.
์ฆ, ์์ ๊ฒฝ์ฐ์๋ 3์ฐจ์์ธ ๊ฒ ๊ฐ์ง๋ง, ๋ฐ์ดํฐ์ ๋ฐ๋๋ฅผ ๋ณด๋ฉด 2์ฐจ์์ ๋ชฐ๋ ค ์์๋ค๋ ๊ฒ์ด๋ค.
์ฆ, MNIST ๋ํ ๊ณ ์ฐจ์์ ๊ณ ๋ คํ ํ์ ์์ด 2์ฐจ์์์ ํด๊ฒฐ์ด ๊ฐ๋ฅํ ๊ฒ์ ๋ณผ ์ ์์๋ค.
๊ณ ์ฐจ์๋ณด๋ค ์ ์ฐจ์์ manifold๋ฅผ ์ ์ฐพ์ผ๋ฉด, ์ฃผ์ ํน์ง๋ค์ด ๋ ์ ๋ฐ์๋๋ค.
์ฆ, ๊ณ ์ฐจ์์์๋ ์คํด๋ฅผ ํ ์ ์์๋ ๊ฒ์ด๋ค.
์๋ฅผ ๋ค์ด, ์ด๋ฏธ์ง ํฝ์ ๊ฐ ๊ฑฐ๋ฆฌ๋ A1์ B๊ฐ ๋ ๊ฐ๊น์ธ ์ ์์ผ๋, ์๋ฏธ์ ์ธ ์ ์ฌ์ฑ ๊ด์ ์์๋ ์ค A2์ B๊ฐ ๋ ๊ฐ๊น๋ค.
์๋ฅผ ๋ค์ด, ์์ ์ฌ์ง์์ ์์ , ๋ค๋ฆฌ์ ๊ณจํ์ฑ ์ฌ์ด์ ๊ฐ๋๋ฅผ A: 10๋, C: 60๋๋ผ๊ณ ํ๋ค๋ฉด,
๋น์ฐํ 3์ฐจ์ ์ฐจ์์์ A์ C์ ์ค๊ฐ์ธ B๋ ํ.. 35๋ ์ ๋ ์น ๋๊ฐ ์๋๊น? ํ๊ณ ์๊ฐํ ์ ์๋ค.
ํ์ง๋ง ์ค์ ๊ฒฐ๊ณผ๋ฅผ ๋ฝ์๋ณด๋ฉด ๊ทธ ์ค๊ฐ์ด ์๋ ๊ฒ์ ํ์ธํ ์ ์๋ค.
์ค์ ๋ก ์ฐ๋ฆฌ๊ฐ ์ํ๋ 35๋๋ผ๋ ์ค๊ฐ interpolation ๊ฒฐ๊ณผ๋ ์ด๋ ๊ฒ ์์์น ๋ชปํ ๊ณณ์ ์กด์ฌํ๋ ๊ฒ์ ๋ณผ ์ ์๋ค.
์ด ๊ฒฐ๊ณผ๋ฅผ ํตํด manifold์์์ ์ค๊ฐ๊ฐ์ด ์ ๋ขฐํ ์ ์๋ ๊ฒฐ๊ณผ๋ค๋ผ๋ ๊ฒ์ ๊นจ๋ฌ์ ์ ์์๋ค.
์ฆ, manifold๋ฅผ ์ ์ฐพ์ผ๋ฉด ์๋ฏธ๋ก ์ ์ ์ฌ์ฑ์ ์ ๋ณด์กดํ ์ ์๋ ๊ฒ์ด๋ค.
๋ํ ์ ์ฌํ ๋ฐ์ดํฐ๋ฅผ ํ๋ํ์ฌ ํ์ต ๋ฐ์ดํฐ์ ์๋ ๋ฐ์ดํฐ๋ฅผ ํ๋ํ ๊ฐ๋ฅ์ฑ๋ ์ด๋ฆฐ๋ค.
์๋ฅผ ๋ค์ด, MNIST data๋ฅผ ๊ทธ๋ฅ 2์ฐจ์์ผ๋ก ๋ฟ๋ฆฌ๋ฉด ์ผ์ชฝ ์ฌ์ง์ฒ๋ผ ๋ค์ฝํ ํํ๋ก ๋ํ๋์ง๋ง,
manifold๊ฐ ๋ถ๋ฆฌ๋์ด ์์ ๋, ๋ฐ์ดํฐ์ ํน์ฑ์ ํด์ํ๊ธฐ๊ฐ ๋ ์ฝ๋ค.
๋ฐ๋ผ์, ๊ณ ์ฐจ์ ๋ฐ์ดํฐ๋ฅผ ์ ์ฐจ์ ๊ณต๊ฐ์ผ๋ก ๋ณํํ ๋,
๋ฐ์ดํฐ์ ํน์ง์ด ์ฝํ ์๋ ์ํ(entangled)์์ ์ ๋ถ๋ฆฌ๋ ์ํ(disentangled)๋ก ๋ง๋๋ ๊ฒ์ด
๋ฐ์ดํฐ ๋ถ์๊ณผ ๊ธฐ๊ณ ํ์ต ๋ชจ๋ธ์ ์ฑ๋ฅ ํฅ์์ ์ค์ํ๋ค๋ ๊ฒ์ ์๊ฐ์ ์ผ๋ก ๋ณด์ฌ์ค๋ค.
์ฆ, ์ฐจ์ ์ถ์๋ manifold๋ฅผ ์ฐพ๋ ๊ณผ์ ์ด๋ผ๊ณ ์๊ฐํ ์ ์๋ค.
https://kh-mo.github.io/notation/2019/03/10/manifold_learning/
์๋ฏธ๋ฅผ ๋ณด์กดํ๋ ๊ณต๊ฐ, manifold · kh-mo's blog
์๋ฏธ๋ฅผ ๋ณด์กดํ๋ ๊ณต๊ฐ, manifold 10 Mar 2019 | ๋๋คํ ๋์๋ฅผ ๋ฐ์์์ผ ์ฌ์ง์ ํ๋ ๋ง๋ ๋ค๋ฉด ์ฐ๋ฆฌ๋ ์ด๋ค ์ฌ์ง์ ์ป์ ์ ์์๊น์? ์๋ง ์๋์ ๊ฐ์ ์ฌ์ง์ ์ป์ ๊ฒ์ ๋๋ค. ๋ ธ์ด์ฆ๊ฐ ๊ฐ๋ํ ์ฌ์ง์
kh-mo.github.io