2장 :: 기초 함수 (1)
2-1 :: 1차 함수
데이터 사이언스는 정확한 의사 결정을 내릴 수 있도록 많은 입력 데이터를 바탕으로 결과를 도출하고,
이를 기반으로 입력과 출력 사이의 관계(함수)를 찾는 것
즉 입력과 출력 사이의 규칙을 찾는 것
"x가 변함에 따라 y가 얼마나 많이 변하는가?"
👉🏻 1차 함수

- x와 y의 관계를 1차식으로 표현한 것
- x가 일차인 형태
- x가 1차 함수로 남으려면 a는 0이 아니어야 한다.
💡x와 y의 관계를 표현하는 값
🧩 기울기
- 위 수식에서 a
- x가 변함에 따른 y의 변화율, 변화 속도 등을 의미
- (그래프의) 직선이 기울어진 정도
🧩 절편
- 위 수식에서 b
- y의 값(출력값)이 미리 이동하는 개념
= 보통 0 에서 출발하는데 절편 b의 값 만큼 미리 이동한 곳에서 시작한다
- 좌표 평면 상의 직선이 x축과 만나는 점의 x좌표 및 y축과 만나는 점의 y좌표를 통틀어 이르는 말
2-1.1 :: 1차 함수에서 기울기와 절편의 의미
👉🏻 기울기
- 기울어진 정도 또는 변화율
- x가 변함에 따라 y가 변하는 정도는 다음과 같다

기울기가 클 수록 해당 x는 y에 더 큰 영향을 미친다고 해석할 수 있다.




- 위의 경우 기울기가 음수
= x가 커질 수록 y가 작아지는 관계를 갖는다.
데이터 사이언스를 공부한다는 것은 문제 해결을 위한 솔루션(f:함수)를 찾는 것과 같다
수학적으로 풀이해보면
어떤 문제가 일어났을 때(y) 나타나는 현상이 일어나게 된 문제, 배경, 원인(x)이 주어지면
y에 대한 x의 f를 찾는 것이다.
f₁(x)와 f₂(x) 가운데 f₂(x)의 기울기가 더 크다는 것은 x₁ 변수가 f₁의 값을 찾을 때 보다 x₂의 변수가 f₂의 값을 찾을 때 더 큰 영향력을 주는 변수라는 의미
- a > 0 라면
a가 커질 수록 그래프의 기울기가 커지고 y축에 가까워짐
- a < 0 라면
a가 작아질 수록 그래프의 기울기가 작아지고 y축에 가까워짐
👉🏻절편
- 그래프가 축과 만나는 지점
- 그래프를 y축으로 평행 이동 시킨다
- y = ax 그래프를 y축으로 b만큼 평행 이동하면 y = ax+b
- x = 0일 때 y=b로 y축과 만나는 값이 b라는 의미
- y = ax 그래프를 y축으로 -b만큼 평행 이동하면 y = ax -b
- x = 0일 때 y = -b로 y축과 만나는 값이 -b이다.
2-2 :: 2차 함수
👉🏻 2차함수
- y가 x에 관한 이차식으로 표현되는 경우

2-2.1 :: 최솟값과 최댓값의 원리를 통해 최적화 이해하기
- 2차 함수에서 2차항의 계수가 0보다 클 때는 아래로 볼록한 그래프가 그려지며, 최솟값을 구할 수 있다
- 2차항의 계수가 0보다 작을 때는 위로 볼록한 그래프가 그려지며, 최댓값을 구할 수 있다
- 그 외의 값은 수렴되지 않기 때문에 보통 2차함수는 최솟값과 최댓값을 구하는 목적으로 사용
- 계수는 그래프의 볼록과 오목 모양을 결정한다

→ 최솟값 (0,0)

→ 최솟값(p,q)
➡️ 2차 항의 계수가 0보다 큰 2차함수에서 해를 구한다는것은 함수 그래프에서 최솟값을 찾는 것
🤔최솟값의 원리, 데이터 사이언스에 적용
- 데이터사이언스는 인공 지능 안의 한 영역
- 데이터를 기반으로 의사 결정을 할 수 있도록 돕는 학문
- 데이터 기반의 의사 결정을 위한 인공지능의 방법으로 머신러닝과 딥러닝이 많이 사용됨
- 머신러닝과 딥러닝은 "최적의 해"를 구하는 방법론 중 하나
- 이 내용을 2차함수로 바꾸어 생각해보면
2차항의 계수가 0보다 클 때, 2차 함수의 최적의 해룰 구하는 것은 최솟값을 구하는것이다

- 이렇게 아래로 볼록한 그래프의 경우 최솟값 이외의 값은 양의 방향으로 무한대로 뻗어 나간다
- 최솟값을 구하는 것은 기울기가 0인 점을 찾는 것

- 기울기가 0인 값을 찾게 되면, 2차 함수의 최솟값을 찾을 수 있고
- 해당 최솟값은 2차 함수의 최적의 해를 의미한다
➡️ 머신러닝과 딥러닝의 최적의 해룰 구하는 모델이 2차함수일 경우 "최적의 해 = 최솟값"이 될 것이다.