일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- CES 2O21 참가
- 결합전문기관
- C언어
- inorder
- bccard
- cudnn
- 대이터
- mglearn
- 재귀함수
- discrete_scatter
- 데이터전문기관
- classification
- web 사진
- KNeighborsClassifier
- 자료구조
- web
- tensorflow
- pycharm
- html
- paragraph
- postorder
- web 용어
- 웹 용어
- vscode
- web 개발
- java역사
- CES 2O21 참여
- 머신러닝
- broscoding
- Keras
- Today
- Total
목록[AI]/python.tensorflow (15)
bro's coding
케시를 사용해 속도 향상 import tensorflow as tf AUTOTUNE = tf.data.experimental.AUTOTUNE import IPython.display as display from PIL import Image import numpy as np import matplotlib.pyplot as plt import os tf.__version__ '2.2.0' https://python.flowdas.com/library/pathlib.html pathlib --- 객체 지향 파일 시스템 경로 — 파이썬 설명서 주석판 pathlib --- 객체 지향 파일 시스템 경로 소스 코드: Lib/pathlib.py 이 모듈은 다른 운영 체제에 적합한 의미 체계를 가진 파일 시스템 경로..
# MNIST 데이터를 다운로드 한다. from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # TensorFlow 라이브러리를 추가한다. import tensorflow as tf # 변수들을 설정한다. x = tf.placeholder(tf.float32, [None, 784]) W = tf.Variable(tf.zeros([784, 10])) b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(x, W) + b) # cross-entropy 모델을 설정한다. y_ = tf.place..
# 절대 임포트 설정 from __future__ import absolute_import from __future__ import division from __future__ import print_function # 필요한 라이브러리들을 임포트 import argparse import sys from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf FLAGS = None def deepnn(x): x_image = tf.reshape(x, [-1, 28, 28, 1]) # 첫번째 convolutional layer - 하나의 grayscale 이미지를 32개의 특징들(feature)으로 맵핑(maping)한다...
import numpy as np import pandas as pd import matplotlib.pyplot as plt import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist=input_data.read_data_sets('./mnist/data/',one_hot=True) # mnist 분류 # RMSPropOptimizer X=tf.placeholder(tf.float32,shape=(None,784)) y=tf.placeholder(tf.float32,shape=(None,10)) w=tf.Variable(tf.random.normal([784,10],0,0.1)) b=tf.Variable..
from tensorflow.examples.tutorials.mnist import input_data mnist=input_data.read_data_sets('./mnist/data/',one_hot=True)
#속성 4개 3중 분류 # RMSPropOptimizer # 중간층 사용 # 중간층 뉴런 수 5>10>10>5 # 중간층 활성화 함수 : sigmoid iris=load_iris() X=tf.placeholder(tf.float32,shape=(None,4)) y=tf.placeholder(tf.float32,shape=(None,3)) w=tf.Variable(tf.random.normal([4,5],0,0.1)) b=tf.Variable(tf.random.normal([5],0,0.1)) u=tf.nn.sigmoid(X@w+b) ww=tf.Variable(tf.random.normal([5,10],0,0.1)) bb=tf.Variable(tf.random.normal([10],0,0.1)) uu=tf..
#속성 4개 3중 분류 # RMSPropOptimizer # 중간층 사용 # 뉴런 10개, 활성화 함수 relu iris=load_iris() X=tf.placeholder(tf.float32,shape=(None,4)) y=tf.placeholder(tf.float32,shape=(None,3)) w=tf.Variable(tf.random.normal([4,10],0,0.1)) b=tf.Variable(tf.random.normal([10],0,0.1)) u=tf.nn.relu(X@w+b) ww=tf.Variable(tf.random.normal([10,3],0,0.1)) bb=tf.Variable(tf.random.normal([3],0,0.1)) pred_y=u@ww+bb ## entropy = t..
#속성 4개 3중 분류 iris=load_iris() X=tf.placeholder(tf.float32,shape=(None,4)) y=tf.placeholder(tf.float32,shape=(None,3)) w=tf.Variable(tf.random.normal([4,3],0,0.1)) b=tf.Variable(tf.random.normal([3],0,0.1)) pred_y=X@w+b ## entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(labels=y,logits=pred_y)) ## optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.01) train_op=optimiz..
# 속성 3개 # 중간층 2개(10) # placeholder 적용 from sklearn.datasets import load_iris iris=load_iris() X=tf.placeholder(tf.float32,shape=(None,3)) y=tf.placeholder(tf.float32,shape=(None,1)) w=tf.Variable(tf.random.normal([3,5])) b=tf.Variable(tf.random.normal([5])) u=tf.nn.relu(X@w+b) # 150x5 ww=tf.Variable(tf.random.normal([5,5])) bb=tf.Variable(tf.random.normal([5])) uu=tf.nn.relu(u@ww+bb) www=tf.Vari..
# 속성 1개 from sklearn.datasets import load_iris iris=load_iris() X=tf.constant(iris.data[:,2],dtype=tf.float32) y=tf.constant(iris.data[:,3],dtype=tf.float32) w=tf.Variable(tf.random.normal([])) b=tf.Variable(tf.random.normal([])) pred_y=w*X+b mse=tf.reduce_mean(tf.square(y-pred_y)) optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01) train_op=optimizer.minimize(mse) costs=[] tf.glob..