Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- bitwise
- 기초100제
- OpenCV
- 기초 100제
- 종합
- 2진수
- face recognition
- 8진수
- 딥러닝
- codeup
- 진수
- 파이썬
- 16진수
- 코드업
- 불 자료형
- 입출력
- 2차원배열
- 산술연산
- 10진수
- 문자열
- 비교연산
- 선택실행구조
- 비트단위논리연산
- 논리연산
- Docker
- 출력
- 아스키코드
- input()
- 반복실행구조
- 불 연산
Archives
- Today
- Total
목록
728x90
반응형
SMALL
모두를 위한 딥 러닝 시즌2 (2)
728x90
반응형
SMALL
DeepFlowest
[모두를 위한 딥 러닝 시즌2] 03_Multi_variable_linear_regression
지금까지는 simple linear regression에 관한 내용이었다. (x가 한 개) 오늘부터는 다변수(x가 여러 개) 선형 회귀에 관한 것이다. 예를 들어, 변수가 3개 있으면 다음과 같이 cost 함수를 쓸 수 있지만 변수가 많으면 식을 표현하기 위해 행렬로 표현한다.
딥러닝
2020. 7. 16. 20:24
[모두를 위한 딥 러닝 시즌2] 02_How_to_minimize_cost
앞 포스팅에서 학습의 목적은 Cost함수를 최소화하는 W와 b를 찾는 것이라 했다. 즉, 오늘은 cost 함수를 최소화해야 하는데 어떻게 최소화할지에 내한 내용을 다룬다. 우선 간단한 hypothesis을 생각해보면 cost 함수는 다음과 같이 표현할 수 있다. Hypothesis : H(x) = Wx Cost : 위 cost 함수 그래프를 보면 cost함수의 최소점이란 빨간 점부분이다. ==> cost가 제일 작게 되는(빨간 점) w를 찾는 것이 우리의 목표이다. 이를 위해서 최저점을 찾기 위해 나온 것이 Gradient descent algorithm이다. ● Gradient descent algorithm > 경사를 따라 내려가면서 최저점을 찾는 알고리즘 방법 : W와 b값을 랜덤 값으로 정해 --..
딥러닝
2020. 7. 16. 20:05
728x90
반응형
LIST