[GAN study] Why it is so hard to train Generative Adversarial Networks!

Gan 학습 로드맵 여섯 번째 시간! 벌써 시간이 이렇게..! 오랜만의 GAN 포스팅!! 😮😮

이번에는 GAN의 개념을 다시 한번 짚고, 학습이 어려운 이유에 대해서 개념정리를 하는 시간이었다.

영어 원문 글은 여기에서 참고하기~


GAN - gan 학습은 왜이렇게 어려울까!

image

모네 그림을 그리는 것 보다 모네의 그림을 인식하는 것이 훨씬 쉽다. Generative model (데이터를 생성하는 것) 은 discriminative model(데이터를 처리하는 것) 과 비교하는 것보다 훨씬 어려운 일이다. 마찬가지로 GAN 을 학습하는 것은 어렵습니다. 이번 글은 GAN의 학습이 왜 이리 피해(학습이 잘 안되는지)가는지 조사해보았다.

이번 공부를 통해 많은 연구자들의 방향을 이끄는 몇 가지 근본적인 문제를 이해할 것입니다. 우리는 연구가 어디로 향할지 알 수 있도록 몇 가지 의견 불일치를 조사할 것입니다. 문제를 살펴보기 전, GAN 방정식 중 일부를 간단히 요약해 보겠습니다.


GAN

GAN 은 정규 분포 또는 균일 분포를 사용하여 잡음 z 를 샘플링 하고 심층 네트워크 생성기 $G$ 를 사용하여 이미지 $x(x=G(z))$를 생성 합니다.

image

GAN에서는 판별자 입력이 실제인지 생성되었는지 구별하기 위해 판별자를 추가합니다. 입력이 실제일 확률을 추정하기 위해 값 D(x)을 출력합니다 .

image


목적 함수와 기울기

GAN은 다음과 같은 목적 함수를 갖는 minmax game 으로 정의됩니다.

$\displaystyle \min_{G} \max_{D}V(D,G)=E_{x\sim P_{data}(x)}[logD(x)]+ E_{x\sim p_{z}(z)}[log(1-D(G(z)))]]$

아래 다이어그램은 해당 기울기를 사용하여 판별자와 생성기를 훈련하는 방법을 요약합니다.

image


GAN 문제

많은 GAN 모델은 다음과 같은 주요 문제를 겪고 있다.

Non-convergence : 모델 매개변수가 진동하고 불안정하며 수렴하지 않는다. Mode collapse : 제한된 종류의 샘플을 생성하는 생성자가 붕괴된다. Diminished gradient : 구분자(discriminator)가 매우 성공적이어서 생성자의 기울기가 감소되어버려 아무것도 학습하지 못한다. genarator과 discriminator의 균형이 맞지 않아 오버피팅을 야기하고 하이퍼파라미터의 값에 따라 매우 예민하다.


Mode

실제 데이터 분포는 multimodal 하다. 예를 들어, MNIST 에서는 10개의 숫자 ‘0’~’9’를 모두 생성하기를 바랄 것이다. 하지만, 아래 샘플을 보면 각 GAN이 생성한 이미지가 다르다. 위의 GAN이 만든 이미지에서는 10가지의 숫자(10개 MODE)를 모두 생성하고 있지만, 두 번째 행의 다른 GAN은 한개의 숫자(모드)만을 생성하고 있다..(숫자 “6”)

이는 생성기가 단 하나의 클래스에 대해서만 확률분포를 학습하고 있는 것이며, 데이터의 적은 모드만을 생성할 때, mode collapse(모드붕괴) 문제 라고 부른다.

image

따라서 임의의 시드 범위가 신경망의 서로 다른 부분을 골고루 통과하면서 0부터 9까지의 모든 가중치가 조화롭게 잘 작동하도록 훈련해야 다양한 확률분포를 동시에 배우는 것에 오류가 없을 것이다.


Nash equilibrium (내쉬 균형)

GAN 은 zero-sum non-cooperative game에 기반하고 있다. 요약하자면, 한명이 이기면 다른 한명은 지는것! (제로섬 게임은 minimax 라고도 함)

따라서 상대방은 자신의 행동을 최대화하기를 원하고 내 행동은 그것을 최소화하는 것이다. 게임 이론에서 GAN 모델은 판별자와 생성자가 내쉬 평형에 도달할 때 수렴하게 된다.

이것은 아래의 minimax 방정식의 최적의 포인트 이다.

$\displaystyle \min_{G} \max_{D}V(D,G)=E_{x\sim P_{data}(x)}[logD(x)]+ E_{x\sim p_{z}(z)}[log(1-D(G(z)))]]$

양쪽 모두 상대방을 약화시키려고 하기 때문에 내쉬 균형은 상대방이 무엇을 하든 한 플레이어가 자신의 행동을 바꾸지 않을 때 발생한다.

x 와 y 의 값을 각각 제어하는 두 명의 플레이어 A 와 B 가 있다고 해보자. 플레이어 A 는 xy 값을 최대화하려고 하고 B 는 최소화하려고 할 것이다.

$\displaystyle \min_{B} \max_{A}V(D,G)=xy$

내쉬균형은 $x=y=0$ 이다. 이것은 상대방이 무엇을 하든 상관 없을때에만 나타나는 상태이다. 어떤 상대방의 행동이 게임의 결과에 아무런 영향을 미치지 않을 때에만 있는 현상이다.

이제 경사하강법을 사용하여 내쉬 균형을 쉽게 찾을 수 있는지 한번 봅시다! 기울기의 파라미터 $x$와 $y$는 value function $V$의 기울기에 기반해 업데이트 된다.

image

$\alpha$는 학습률이며, 학습 iterations이 진행되는 동안 $x,y$ 와 $xy$를 그려본 결과는 아래와 같으며, 제시한 한 솔루션이 수렴하지 않았다는 것을 알 수 있습니다.

image

만약 학습률을 높이거나 모델의 학습을 더 오래하면 파라미터 $x,y$는 큰 스윙을 그리며 불안정한 모습을 보이는 것을 확인할 수 있다.

image

위의 예시들은 몇몇의 비용함수(cost function)는 경사하강기법으로 수렵하지 않는다는 것을 보여주는 훌륭한 케이스이다. (특히 볼록하지 않은 상황에서 더욱 수렴하지 않음) 우리는 이 문제에 대해 직관적 방식으로 살펴볼 수 있다 : 상대방은 언제나 나의 행동에 대응하며, 이는 모델을 수렴하기 어렵게 만든다.

minmax 게임에서 경사하강법을 사용하는 것은 비용함수를 수렴하는데 도움이 되지 않을 수 있다.


블로그에 쓰인 글 만으로는 이해가 어려워서 GAN 첫걸음 이라는 책을 참고하여서 부연설명하고자 한다.

신경망을 훈련할 때 흔히 경사하강법(gradient descent)를 이용한다. 이 경우 손실 함수가 학습 파라미터의 조합을 찾아 오차를 최소화 한다.

하지만 GAN의 작동원리는 단순한 신경망과 다르다. 생성자와 판별자는 서로 반대되는 목적으로 훈련이 되며 MIN-MAX 게임과 같은 방식이다. 따라서 경사 하강법이 MIN-MAX 원리의 GAN에 잘 맞을지 알아보아야 합니다.

간단한 목적함수를 가지고 설명하겠습니다.

$f = x \cdot y$ 가 있다고 할때, 한 플레이어는 x에 대한 통제력이 있고 목표값 f를 최대화하려고 한다. 다른 플레이어는 y에 대한 통제력이 있고 목표값 f 를 최소화 하려고 한다. 이 함수를 시각화 하면 아래와 같다. ( 함수 시각화된 사이트 여기! )

image

$f = x \cdot y$ 의 표면이 마치 말에 얹어진 안장모양이다. 한쪽 방향으로는 값이 커지다가 다시 떨어지고 다른 방향에서는 값이 떨어지다가 다시 올라가는 그런 모양이다.

직관적으로 위의 함수를 보며 균형적인 해결책을 생각해보면 그나마 나은 것은 안장 그래프의 정중앙 $(x,y)=(0,0)$ 인 지점이다. 이 때, 한 플레이어가 $x$를 0으로 두면 두 번째 플레이어는 $y$를 어떤 값으로 설정해도 $f$ 에 영향을 미치지 못한다. 이때의 $f$값이 제일 나은 타협안이라고 볼 수 있는 것이다..!

슬슬 감이 온다..!

서로 이기려는 두 플레이어 모두에 대해 경사 하강법 계산을 해보면서 결과를 살펴보자!

목적 함수의 기울기에 따라 파라미터들이 조금씩 바뀌게 된다.

$x \rightarrow x + lr*$ $\delta f \over \delta x$

$y \rightarrow y - lr*$ $\delta f \over \delta y$

(두 식의 부호가 반대인 이유는 $x$는 경사를 올라가는 과정에서 $f$를 최대화하려고하고 $y$ 는 경사를 내려오는 과정에서 $f$를 최소화 하려고 하기 때문이다.)

$f=xy$ 이므로 이 수식을 다시 짜면

$x \rightarrow x + lr * y$

$y \rightarrow y - lr * x$

이 두 값을 계속 갱신 규칙에 적용하게 되면 수렴하지 않고 진폭이 커지며 진동하는 현상을 볼 수 있다. 다른 초깃값을 넣어도 같은 현상이 나타나는데 이는 상당히 좋지 않은 결과입니다. 경사 하강법이 간단한 min-max 게임에 대해 좋은 해결을 찾지 못할 뿐더러 수렴의 반대인 발산으로 나타나기 때문입니다.

$(x,y)$ 궤적이 $(0,0)$을 중심으로 고정된 원을 그리면서 가까워지지도 않는 것이 수학적으로 가장 좋은 시나리오지만, 이는 업데이트 혹이 무한소처럼 굉장히 작을 때나 가능한 이야기이다. 유한한 업데이트 폭을 설정하고 업데이트를 계속하면 결국 발산하게 된다.

경사 하강법은 일반적인 환경에서 global minima는 아니더라도 local minima 같은 값을 하나는 찾도록 보장이 되어있는 함수이다. 이 함수가 GAN에 대해 잘 작동하는 경우(유의미한 데이터가 있는 현실적인 GAN은 손실 표면이 훨신 복잡할 것이고 이것이 발산으로 빠질 가능성을 줄여줄 수 는 있다)도 있지만, 근본적으로 경사하강볍은 GAN에는 맞지 않는 방법이다. GAN에 딱 맞는 최적화 방법에 대해서는 현재도 활발하게 논의중에 있다.


Generative model with KL-Divergence & JS-Divergence

GAN의 수렴 문제를 이해하기 위해서는 KL-Divergence와 JS-divergence를 먼저 공부해야 한다. GAN 이전에, 많은 생성 모델들이 최대우도법(MLE)을 최대화시키기 위해 모델$\theta$를 만들었다. (ex.학습 데이터에 가장 잘 맞는 최적의 모델 파라미터를 찾는 것)

위의 두 주제에 대해서는 자세히 설명한 포스팅이 있으니 KL-divergence & JS-divergence & Maximum Likelihood Estimation와 개념정리 참고하자!


Vanishing gradients in JS-Divergence

discriminator(구분자)이 optimal 하면 generator(생성자)의 목적함수는 다음과 같다는 것을 확인했었다.

$\displaystyle \min_{G} V(D^*,G) = 2D_{JS}(p_r | p_s) -2log2$

생성자의 이미지 데이터 분포 q가 실제 이미지인 ground truth 값인 p 와 전혀 맞지 않는다면 JS-Divergence 기울기에는 어떤 영향을 미칠지 알아보자.

분포 $p$와 $q$가 가우시안 분포의 형태이고 p 의 평균이 0 이라고 가정해보자. $JS(p,q)$의 기울기를 알아보기 위해 $q$의다른 평균을 예로 들어보자.

먼저, JS-divergence $JS(p,q)$ 를 그렸다. $p$와 $q$의 평균이 0~30의 분포에 걸쳐 세팅되어있는 것을 확인할 수 있다.

화면 캡처 2021-12-23 204250

아래 그림을 보면 JS-divergence의 기울기는 $q1$ 에서 $q3$ 으로 소실하고 있다. GAN 생성자는 비용이 저 지역에서 수렴할때 아무것도 아닌 값으로 매우 느리게 학습될 것이다. 특별히, 이른 학습에서는 $p$ 와 $q$ 는 매우 다르며 생성자는 매우 느리게 학습하는 것을 볼 수 있다.

image


Unstable gradients

기울기 소실의 문제를 해결하기 위해 alternative cost function(비용함수 대안)이 제안되었다. 이것은 GAN 논문에서도 다루었으니 참고!

image

Arjovsky의 리서치 페이퍼에서는 아래와 같은 수식을 제안하고 있다.

image

Arjovsky가 왜 GAN 은 높은 퀄리티를 가졌으나 KL-divergence를 기반으로 한 생성적인 모델과 비교했을 때 덜 다양(발산)하는지를설명하기 위해 사용하는 단어인 역-KL-divergence(Reverse-KL-divergence)를 포함하고 있다.

한편, 같은 분석은 기울기가 변동적이고 모델에 불안정성을 야기한다고 주장한다. 이 요점을 파악하기 위해 Arjovsky는 생성자를 freeze 시키고 구분자에 대해서만 학습되도록 하였다. 그렇게 하니, 생성자의 기울는 큰 변동으로 늘어나기 시작했다.(아래 이미지 참고)

image

위의 실험은 GAN을 학습하는 방법이 아니다. 그럼에도, 수학적으로는, Arjovsky는 처음 GAN의 생성자 목적 함수가 기울기 소실을갖고 있으며, 대안비용함수는 모델의 불안정성을 야기하는 fluctuating(변동) 기울기를 갖고 있다는 것을 보여주고 있다.

GAN의 논문원문을 보면 이 논문 이후에 LSGAN, WGAN, WGAN-GP, BEGAN 등과 같은 새로운 비용함수를 찾는 골드 러쉬가 있었다고 한다. 일부 방법은 새로운 수학적 모델을 기반으로 하고 어떤 방법은 실험에 의한 직관 백업을 기반으로 한다. 이들의 궁극적 목표는 결국 더 부드러우면서 소멸하지 않는 기울기를 갖는 비용함수를 찾는 것이다.

한편, 2017년 Google Brain Paper의 “Are GANs Created Equal?”에서 다음과 같이 주장했다.

결국 마지막으로 테스트한 알고리즘 중 어느 것도 오리지널 알고리즘 보다 일관되게 성능이 좋다는 증거를 찾지 못했다.

이와 같이, GAN 을 훈련하는 것은 쉽게 실패한다. 따라서 처음부터 많은 비용 함수를 시도하는 대신 디자인과 코드를 먼저 디버깅해보고, 다음으로는 하이퍼파라미터에 민감하기 때문에 하이퍼파라미터를 조정하기 위해 열심히 노력하세요..! 라고 하네요..!


Why mode collapse in GAN?

모드붕괴는 GAN의 문제를 해결하는데 중요한 문제이다. 완벽한 붕괴는 흔하지 않지만 부분 붕괴는 자주 일어난다.

같은 색으로 밑줄이된 이미지들은 비슷해 보이고 모드의 붕괴가 시작되고 있다.

image

이게 어떻게 일어나는지 한 번 살펴보자. GAN 생성자는 구분자 D를 속이기 위해 이미지를 생성한다.

그러나 극단적 케이스를 하나 생각해보자. 생성자 $G$가 $D$에 업데이트를 하지 않은 채 극심하게 학습이 되고 있다. 생성된 이미지는 $D$를 최대한 속일 수 있는 optimal 한 이미지 $x^* $를 찾도록 수렴될 것이다. 이 상황에서 $x^* $ 는 $z$에 의존적일 것이다. (잠재 분포인 $z$에 의존적이라는 것은 실제 이미지와 비슷하다 라는 뜻!)

$x^*=argmax_x D(x)$

이것은 나쁜소식이다. 모드는 하나의 싱글 포인트로 붕괴되기 때문이다. $z$와 관련된 기울기는 0 으로 수렴될 것이다. (z와 값이 비슷해지기 때문에 손실비용이 0이 된다는 뜻인것 같다.)

$ \partial J \over \partial z $ $\approx 0$

판별기(구분자)에서 훈련을 다시 시작할 때 생성된 이미지를 감지하는 가장 효과적인 방법은 이 단일 모드를 감지하는 것이다. 생성기는 이미 $z$ 의 영향을 둔감하게 하기 때문에 판별기의 기울기는 다음으로 가장 취약한 모드에 대해 단일 지점을 밀어낼 가능성이 높다. 이것은 찾기 어렵지 않다.

생성자는 훈련에서 모드의 불균형을 일으켜 다른 것을 감지하는 능력을 저하시킨다.

이제 두 네트워크 모두 단기 상대의 약점을 악용하기 위해 과적합이 되었습니다. 이것은 고양이와 쥐 게임으로 바뀌고 모델은 수렴되지 않습니다. (고양이와 쥐 라는 말에서 유추해본 결과 한쪽에만 그 힘이 쏠려서 $G$와 $D$ 사이의 불균형이 초래된다 라는 것 같다.)

아래 다이어그램에서 Unroll GAN은 8가지 예상 데이터 모드를 모두 생성하고 있는것을 보여준다.

두 번째 행을 보면 구분자가 생성자를 따라잡을 때 모드가 축소되고 다른 모드로 회전하는 또 다른 GAN 모델을 보여줍니다.

image

훈련 중에 판별자는 적을 탐지하기 위해 지속적으로 업데이트됩니다. 따라서 생성자가 과적합될 가능성이 적다. GAN 학습은 여전히 휴리스틱한 프로세스이며 부분 붕괴는 여전히 일반적이다.

그러나 모드 붕괴가 나쁜것 만은 아니다. 예를 들어, Style Transfer 에서는 모든 변형을 찾는 것보다 하나의 이미지를 좋은 이미지로 변환하는 것에 중점을 두고있다. 실제로 부분 모드 축소의 전문화는 때때로 더 높은 품질의 이미지를 생성하기도 한다.

이렇게 어떤 부분에서는 긍정적이지만 모드 붕괴는 여전히 GAN에서 해결해야 할 가장 중요한 문제 중 하나로 남아 있습니다.


Implicit Maximum Likelihood Estimation (IMLE)

–(작성중)–

댓글남기기