일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 시간복잡도
- 자료구조
- 구조체와 클래스의 공통점 및 차이점
- string 함수
- getline
- correlation coefficient
- k-eta
- 입출력 패턴
- 이분그래프
- 알고리즘 공부방법
- 프레임워크와 라이브러리의 차이
- 매크로
- double ended queue
- Django란
- 2557
- iOS14
- 엑셀
- 입/출력
- 표준 입출력
- 연결요소
- UI한글변경
- Django Nodejs 차이점
- 백준
- vscode
- Django의 편의성
- c++
- string 메소드
- scanf
- EOF
- 장고란
- Today
- Total
목록데이터 사이언스/모두를 위한 딥러닝 (27)
Storage Gonie
※ 아래의 모든 예제는 bias를 제거한 심플한 hypothesis 에 대해서 구현한 것이다. # -3~+5구간에서 W값을 차례대로 주어 cost를 출력해보는 예제import tensorflow as tf import matplotlib.pyplot as plt # 훈련데이터 X = [1, 2, 3] Y = [1, 2, 3] # 변수노드 선언 W = tf.placeholder(tf.float32) # bias가 없는 심플한 hypothesis 노드 선언 hypothesis = X * W # cost/loss function 노드 선언 cost = tf.reduce_mean(tf.square(hypothesis - Y)) sess = tf.Session() # 위에서 tf.placeholder 또는 tf...
# Gradient descent 알고리즘- 경사가 거의 없어질 때까지 경사면을 타고 내려가는 알고리즘- 경사를 내려가는 알고리즘으로 Cost(W,b)에서 Cost의 값을 최소화시키는 W, b를 찾을때 사용됨- Cost(w1, w2, ...) 일때도 사용가능- 값을 최소화 시켜야하는 여러 문제들에 사용됨 # Convex function- 어디서 경사면을 타고 내려가도 최소점을 찾을 수 있는 웅덩이가 하나뿐인 함수- 사용자가 임의대로 만든 Cost함수라면 Convex 함수인지 확인하고 사용해야한다.- 단 여기서 나오는 Cost함수는 Convex임이 증명된 것이므로 그냥 사용하면 됨.# Non-Convex function- 웅덩이가 여러개여서 임의의 지점에서 경사를 타고 내려왔을 때 최소가 되는 지점을 찾지..
※ ver1은 이해하는 용도로 보고 실제 구현은 ver2 방식으로 구현해야 한다. # Linear regression 구현(1단계, Build graph using TF operations)_ver1 import tensorflow as tf # X, Y 데이터준비 x_train = [1, 2, 3] y_train = [1, 2, 3] # Tensorflow Variable 노드 선언 # tf.Variable : 훈련시키는 과정에서 이 둘의 값을 텐서플로우가 자체적으로 값을 변경시킬 수 있는 Variable 형태로 선언. # tf.random_normal은 초기값을 랜덤하게 초기화 해주는 방법 # tf.random_normal( )안에 있는 [ ]는 shape을 나타내는데 여기서는 rank가 1인 즉 1..
# Linear Regression에서 어떤 Hypothesis가 좋은것인가?- 존재하는 데이터의 y값과 H(x)의 간격이 작은게 좋은 것이다.- H(x)-y 는 양수일 때도 있고 음수일 때도 있어서 {H(x)-y}^2 가 작은 Hypothesis를 찾으면 된다.# Linear Regression의 Cost(Loss) function # Linear Regression에서 훈련이 의미하는 것 - H(x) = Wa + b 이므로 cost의 값은 w와 b에 의해서 결정된다.- 따라서 cost는 W와 b의 함수로 나타낼 수 있고, 이 cost 함수의 값을 최소화 시키는 적절한 W와 b를 찾는 것이 훈련이다. 그림참고 : https://youtu.be/Hax03rCn3UI
# 텐서플로우란?- data flow graphs를 이용해 숫자연산을 하기위한 구글에서 만든 오픈소스 라이브러리- Python으로 프로그래밍을 할 수 있기 때문에 인기가 있음. # 텐서플로우가 좋은 이유- Gitgub에서 2017년 10월 부동의 1위를 기록- 그만큼 공부할 때 참고할 수 있는 자료가 많음 https://twitter.com/fchollet/status/915366704401719296 # Data Flow Graph는 무엇인가?- 노드는 값 또는 연산을 가지고, 선은 Tensors(multi-dimensional data arrays)의 전달을 나타내며 수학적인 연산을 그래프 형태로 나타낸 것을 말한다.https://www.tensorflow.org/guide/graphs # Linux..
Supervised Learning(labeled data)- image lebeling(이미지를 보여주면 뭔지 예측하는거)- email spam filter(스팸 또는 정상인지 예측하는거)- predicting exam score(공부시간에 따른 시험점수 예측하는거) Unsupervised Learning(un-labeled data)- word clustering- google news grouping Type of Supervised Learning- regression(0~100점 사이의 성적예측)- binary classification(pass or non pass)- multi-label-classification(A, B, C, D의 성적 예측)
본 강의의 링크 - https://hunkim.github.io/ml/- https://github.com/hunkim/DeepLearningZeroToAll Andrew Ng's ML class- https://class.coursera.org/ml-003/lecure- https://www.holehouse.org/mlclass/ (필기노트) Convolutional Neural Networks for Visual Recognition.- https://cs231n.github.io/ Tnesorflow- https://www.tensorflow.org (텐서플로우 도큐먼트)- https://github.com/aymericdamien/TensorFlow-Examples (간단한 텐서플로우 예제들) ..