일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- c++
- 표준 입출력
- 구조체와 클래스의 공통점 및 차이점
- string 메소드
- vscode
- 시간복잡도
- UI한글변경
- 입출력 패턴
- 매크로
- 입/출력
- Django의 편의성
- double ended queue
- 이분그래프
- 프레임워크와 라이브러리의 차이
- 연결요소
- 알고리즘 공부방법
- Django란
- k-eta
- 2557
- iOS14
- Django Nodejs 차이점
- EOF
- 엑셀
- 자료구조
- getline
- scanf
- string 함수
- correlation coefficient
- 백준
- 장고란
- Today
- Total
목록데이터 사이언스 (36)
Storage Gonie
공분산 # 개념 앞서 분산이란걸 공부할때 분산은 한 변수의 평균에 대해서 각 값이 얼마나 떨어져 있었는지를 수치화 한것이라면 공분산은 두 변수가 각각의 평균에 대해서 얼마나 떨어져 있는지를 수치화 한것이라 할 수 있다. #공분산을 구하는 예시 두 속성 x, y에 대한 값이 다음과 같다고 해보자 (1, 7), (2, 5), (3, 3), (4, 1), (5, -1) #공분산 값의 해석 Cov(X, Y) > 0 X가 증가 할 때 Y도 증가한다.(양의 상관관계) Cov(X, Y) < 0 X가 증가 할 때 Y는 감소한다.(음의 상관관계) Cov(X, Y) = 0 공분산이 0이라면 두 변수간에는 아무런 선형관계가 없음 #공분산의 한계 공분산은 값의 범위가 정해져 있지 않아서 어떤 값을 기준으로 정하기 애매하다. ..
https://www.facebook.com/dgtgrade/posts/1340177956041067?hc_location=ufi https://www.facebook.com/dgtgrade/posts/1328790023846527?hc_location=ufi https://www.facebook.com/dgtgrade/posts/1854447711280753?hc_location=ufi https://www.facebook.com/dgtgrade/posts/1855100104548847?hc_location=ufi
# ML에서의 기대하던 것과 현실의 차이(ML Surprise)[ML에서의 기대하던 것과 현실의 차이]- 대부분의 사람들이 ML알고리즘을 최적화 하는 데에만 집중하는 경향이 있어서 hyper parameter를 조정하는 것에 힘쓰는 것을 봐왔다.- 하지만 실제 큰 성공을 거둔경우를 보면 위의 내용과 좀 다르다.- 실제로 ML 알고리즘을 최적화 하는데는 훨씬 더 적은 노력이 소모된다.- 이보다 중요한 것은 데이터 수집이고 이에 세심한 주의를 기울여야 한다.- 그리고 인프라를 구축하는데도 시간을 들여야 한다.- 모델을 여러번 자동으로 훈련하고, 최종 사용자들에게 규모에 맞게 서비스를 제공할 수 있도록 하는 것이기 때문이다.- ML은 생각보다 그렇게 중요하지 않지만 ML에 도달하려고 하는 이유는 이 길을 따라..
# AI와 ML의 차이(What it means to be AI first)- AI는 인간같이 행동하고 생각하는 기계를 만드는 방법과 이론을 다루는 분야를 의미한다.- ML은 특정 AI문제를 풀기위한 도구집합을 의미하며, 다른 기술과 비교되는 차이점로 기계가 지능이 없는상태에서 시작하여 학습을 통해 지능적이 되는 것이다. # ML은 두 단계로 구현된다(Two stage of ML)- 여기서 집중하게될 ML의 form은 지도학습(supervised learning)이다.- 아래의 예시는 이미지를 보여주면 그 이미지가 무엇인지 식별하는 ML모델을 훈련시키는 예시이다. - examples로 ML모델을 훈련시킨다. - examples은 input(이미지의 픽셀)과 label(정답)으로 이루어져 있다. - ML모..
# 전체 커리큘럼 소개 (Intro to ML on GCP Specialization) # 구글은 어디에 머신러닝을 적용하고 있는가? (Specialization Agenda)- 구글은 자신들의 거의 모든 상품에 머신러닝을 적용한다.- Google photo(이미지 자동 분류), Google ads(사용자 맞춤 광고), Youtube(다음 동영상 추천), Self-driving cars(보행자 감지), Gmail(스팸메일 분류) # 구글에서 각 분기별 생성한 ML 모델 수 (Why Google?) - 2017년 초 4000개 이상의 Tensorflow 모델을 구글의 제품에 적용한 상태.- 우리는 앞으로 구글이 적용한 기술을 배울 예정. # 구글 클라우드를 사용할 때의 장점 (Why Google Cloud..
# ㅁㄴㅇㅁㄴㅇ- ㅁㄴㅇㅇㅁㄴㅇ
# 어떻게 weight와 bias를 학습시킬 수 있는가?- 1969년도에 Minsky 교수가 weight와 bias를 훈련시키는 방법을 찾을 수 있는 이가 아무도 없다고 하였음.- 이 이유는 입력 및 각 노드의 출력이 최종 결과값에 미치는 영향을 계산해낼 수 없었기 때문이다.- 그런데 1974, 1982년도에 Paul Werbos, 1986년도에 Hinton에 의해서 Backpropagation 방법으로 훈련시킬 수 있음이 알려짐.- 간단한 예를 통해 입력 및 각 노드의 출력이 최종 결과값에 미치는 영향을 계산해 낼 수 있음을 확인하자. # 입력 및 각 노드의 출력이 최종 결과값에 미치는 영향을 계산하는 예시- Q. x, w, b의 입력이 있고 *, + 노드가 있으며 최종 출력 f = wx + b일 때 ..
# Basic derivative(기본 미분)- 델타엑스를 0에 가까운 아주 작은 값으로 줄때, x는 이만큼 변하는데 f는 얼마나 변하는가. 즉, 순간 변화율을 의미하고 이것이 '기울기'이다.ex) 여기서 x를 0에 가까운 아주 작은 수로 수렴시키지만, x = 0.01이라고 가정하고 미분을 해보자.# Partial derivative(부분미분) - 다른변수를 상수로 생각하고 미분하는 것.- 거꾸로 뒤집어진 e를 partial이라고 부름.- (ㅁ+ㅁ)'는 ㅁ' + ㅁ'을 통해 구할 수 있다. # Chain rule- 복잡한 형태의 미분을 구할때 는 아래와 같이 각각을 미분한 것을 서로 곱해줌으로써 구할 수 있다.
# XOR 문제를 Neural network로 어떻게 풀 수 있는지 확인- 단, weight와 bias를 학습시키는 방법은 다다음장에서 배움 1) 하나의 유닛 or 모델로는 XOR 문제를 풀 수 없다는 것을 Minsky교수가 수학적으로 증명하였고, XOR문제는 풀 수 없는 것이라 믿는 계기가 되었음. 2) Minsky교수는 유닛을 2개, 3개 붙이면 XOR 문제를 풀 수 있다고 하였는데, weight, bias를 학습시킬 방법을 아는 사람이 아무도 없다고 하였음.https://cs231n.github.io/convolutional-networks 3) 지금은 weight, bias를 학습시키는 대신, 값을 잘 초기화 시켜서 한번 XOR 문제를 풀어보자- 네모난 박스에서는 xw+b의 연산이 일어나고 이 결..
* 키워드 : slicing, shape, rank, axis, matmul, broadcasting, reduce_mean, reduce_sum, argmax, reshape, squeeze, expand_dims, one_hot, cast, stack, ones_like, zeros_like, zip #-*- coding: euc-kr -*-# https://www.tensorflow.org/api_guides/python/array_ops import tensorflow as tf import numpy as np import pprint tf.set_random_seed(777) # for reproducibility pp = pprint.PrettyPrinter(indent=4) sess = t..