일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- vscode
- java역사
- 재귀함수
- 대이터
- KNeighborsClassifier
- web 개발
- pycharm
- 웹 용어
- C언어
- 머신러닝
- 결합전문기관
- discrete_scatter
- cudnn
- paragraph
- web 용어
- html
- broscoding
- 데이터전문기관
- 자료구조
- Keras
- postorder
- bccard
- tensorflow
- CES 2O21 참가
- web
- inorder
- web 사진
- classification
- mglearn
- CES 2O21 참여
- Today
- Total
목록[AI]/GAN (15)
bro's coding
from keras.layers import Input, Conv2D, Flatten, Dense, Conv2DTranspose, Reshape, Lambda, Activation, BatchNormalization, LeakyReLU, Dropout, ZeroPadding2D, UpSampling2D from keras.layers.merge import _Merge from keras.models import Model, Sequential from keras import backend as K from keras.optimizers import Adam, RMSprop from keras.callbacks import ModelCheckpoint from keras.utils import plot_..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bAtwzH/btqFHqd4Kn5/VDNMGbvcgK45t6TABv4KP0/img.png)
%matplotlib inline import os import matplotlib.pyplot as plt from models.WGANGP import WGANGP from utils.loaders import load_celeb import pickle https://broscoding.tistory.com/330 WGANGP.source from keras.layers import Input, Conv2D, Flatten, Dense, Conv2DTranspose, Reshape, Lambda, Activation, BatchNormalization, LeakyReLU, Dropout, ZeroPadding2D, UpSampling2D from keras.layers.merge impo.. bro..
MAX : 1 MIN : -1 로 정할 경우 [1, 2, 0.5, 3, -1, -3, 4] 는 [1, 1, 0.5, 1, -1, -1, 1] 로 판단
GAN DCGAN 완전층 합성곱
WGAN의 가중치 클리핑 (Weight Clipping)Wasserstein GAN(WGAN)은 기존 GAN의 훈련 불안정성을 개선하기 위해 등장한 모델로, Wasserstein 거리(지구 거리)를 사용하여 생성자와 판별자 간의 차이를 측정합니다. WGAN에서는 판별자가 1- Lipschitz 연속 조건을 만족해야 하는데, 이를 간단히 구현하기 위해 가중치 클리핑(weight clipping)을 사용합니다.가중치 클리핑의 개념WGAN의 판별자(critic)가 Lipschitz 연속성을 만족하려면 네트워크의 가중치가 특정 범위 내에 제한되어야 합니다.훈련 중 판별자의 모든 가중치를 일정 범위 [−c, c]로 제한하는 방법이 가중치 클리핑입니다.이를 통해 판별자가 Lipschitz 조건을 근사적으로 만족하도..
from keras.layers import Input, Conv2D, Flatten, Dense, Conv2DTranspose, Reshape, Lambda, Activation, BatchNormalization, LeakyReLU, Dropout, ZeroPadding2D, UpSampling2D from keras.layers.merge import _Merge from keras.models import Model, Sequential from keras import backend as K from keras.optimizers import Adam, RMSprop from keras.callbacks import ModelCheckpoint from keras.utils import plot_..
모드 붕괴(mode collapse)는 생성자가 판별자를 속이는 적은 수의 샘플을 찾을 때 일어난다. 한정된 이 샘플 이외에는 다른 샘플을 생성하지 못한다. generator가 0~9(mnist)에서 discriminator 을 잘 속일 수 있는 0과 1만을 만드는 것 mode(모드) : 생성자가 판별자를 항상 속이는 하나의 샘플 GAN 참고 문헌 http://book.naver.com/bookdb/book_detail.nhn?bid=15660741 미술관에 GAN 딥러닝 실전 프로젝트 창조에 다가서는 GAN의 4가지 생성 프로젝트이 책은 케라스를 사용한 딥러닝 기초부터 AI 분야 최신 알고리즘까지.. broscoding.tistory.com
from keras.layers import Input, Conv2D, Flatten, Dense, Conv2DTranspose, Reshape, Lambda, Activation, BatchNormalization, LeakyReLU, Dropout, ZeroPadding2D, UpSampling2D from keras.layers.merge import _Merge from keras.models import Model, Sequential from keras import backend as K from keras.optimizers import Adam, RMSprop from keras.utils import plot_model from keras.initializers import RandomN..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/uMOjp/btqFDbomiC3/XH60shTLh8canPNed5gdZK/img.png)
WGAN : wasserstein 손실함수를 GAN에 적용(원래 GAN의 손실 함수는 binary cross entropy) import os import numpy as np import matplotlib.pyplot as plt from models.WGAN import WGAN from utils.loaders import load_cifar # run params SECTION = 'gan' RUN_ID = '0002' DATA_NAME = 'horses' RUN_FOLDER = 'run/{}/'.format(SECTION) RUN_FOLDER += '_'.join([RUN_ID, DATA_NAME]) if not os.path.exists(RUN_FOLDER): os.mkdir(RUN_FOLD..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Gp5vV/btqFGMngY98/m6u9HlL4KEksIjC1e8gwGk/img.png)
discriminator : 진짜 이미지는 진짜 이미지로 판단, 가짜 이미지는 가짜 이미지로 판단 하는것이 목표 generator : 랜덤한 노이즈 값을 입력 받아서 가짜 이미지를 생성, discriminator이 어떻게 판단하는지에 따라 진짜 이미지 같이 만드는것이 목표 batch_size : 64 epochs : 6000 https://broscoding.tistory.com/323 GAN.source from keras.layers import Input, Conv2D, Flatten, Dense, Conv2DTranspose, Reshape, Lambda, Activation, BatchNormalization, LeakyReLU, Dropout, ZeroPadding2D, UpSampling2D..