학습기계의 형식적인 수학적 체계를 개발하기 위해서, 우리는 우리의 모델이 얼마나 좋은지(또는 나쁜지)에 대한 공식적인 측정이 필요하다. 머신러닝과 최적화에 있어서, 우리는 이것을 객관적 기능이라고 부른다.습관적으로 우리는 개관적인 기능은 낮은것이 더 좋은 것이다. 라는 하나의 관습에 불과한 통념을 가지고 있다. 어떤 기능 f는 더 높은 것이 더 낫으면 선택할 수 있다. 그리고 질적으로 동일하게 새로운 함수 f`로 바꾸어도 낮은것이 더 좋은 것의 통념으로 f`=-f 세팅으로 한다. 이러한 기능을 손실 함수 또는 비용 함수라고도 한다. 숫자 값을 예측하려고 할 때, 가장 일반적인 목표 함수는 제곱 오차(y-y^)2 입니다. 분류의 경우, 가장 일반적인 목표는 오류율을 최소화하는 것이다. 즉, 우리의 예측이 진실과 일치하지 않는 사례를 최소화하는 것이다. 일부 목표(예: 오차 제곱)는 최적화하기 쉽다. 다른 (오류율과 같은) 것들은 직접 최적화하기 어렵다. 미분이 어렵거나 복잡한 경우는 때문에 대리 목적을 최적화하는 것이 일반적이다. 일반적으로 손실 함수는 모델의 매개변수에 대해 정의되며 데이터 집합에 의존한다. 모델 매개변수 중 최상의 값은 다음을 통해 학습된다. 훈련를 위해 트레이닝 세트의 일부분으로 구성된 수집한 샘플에 초래되는 손실을 최소하는 하는 과정에서 도출이 된다. 그러나 훈련 데이터를 처리를 잘한다고 해서 (시험 데이터를) 좋은 결과를 보장은 없다. 따라서 우리는 일반적으로 사용 가능한 데이터를 두 개의 파티션으로 분할하고자 한다. 훈련 데이터(모델 매개변수 적합용) 그리고 테스트 데이터(평가를 위해 유지됨) 확인 두 가지로 한다. 훈련 오류- 데이터 오류를 가지고 훈련하는 된 상황. 연습 시험에서 학생들의 점수는 실제 시험을 준비하는 데 사용되는 것과 같다고 생각할 수 있다. 결과가 고무적이라고 해서 기말고사에서의 성공이 보장되는 것은 아니다. 테스트 오류: 이것은 보이지 않는 테스트 세트에 발생한 오류다. 이는 훈련 오류에서 크게 벗어날 수 있다. 모델이 훈련 데이터에서 우수한 성능을 발휘하지만 확인 못하는 데이터에서 일반화를 실패하는 경우를 우리는 오퍼피팅이라고 한다. 이것은 실생활에서 연습시험을 잘 치르는데도 불구하고 실제 시험에 낙제하는 것과 같다. 일단 데이터 소스와 표현, 모델, 그리고 잘 정의된 목표 함수를 확보하게 되면, 손실 함수를 최소화하기 위해 가능한 최선의 파라미터를 검색할 수 있는 알고리즘이 필요하다. 신경 네트워크를 위한 가장 인기 있는 최적화 알고리즘은 경사 하강 접근법을 따른다. 요약하자면, 각 단계마다 만약 당신이 그 파라미터를 단지 조금씩 바꾸었다면, 훈련 세트 손실이 상황이 어떻게 되는지 각 파라미터를 확인한다. 그런 다음 손실을 줄이는 방향으로 매개 변수를 업데이트한다. 다음 섹션에서는 몇 가지 종류의 기계 학습 문제에 대해 더 자세히 논의한다. 우리는 목표 리스트와 기계학습에 대한 원하는 것들이다. 유의점은 목표는 데이터 유형, 모델, 교육 기법 등을 포함하여 달성 방법에 대한 일련의 기법으로 보완된다는 점이다. 감독된 학습은 주어진 입력값을 예측하는 과제를 다룬다. 우리가 흔히 라벨이라고 부르는 표적은 일반적으로 y로 표시된다. 형상 또는 공변량이라고도 하는 입력 데이터는 일반적으로 x로 표시된다. 각 (입력, 대상) 쌍을 예시 또는 인스턴스라고 한다. 때로는 문맥이 명확할 때나, 해당 대상을 알 수 없는 경우에도, 입력의 컬렉션을 참조하기 위해 예시라는 용어를 사용할 수 있다. 우리는 예를 들어, 일반적으로 i인 첨자를 사용하여(xi,yi ) 어떤 특정한 예시를 나타낸다. n개의 데이터 집합은 {xi,yi}ni=1이다. 우리의 목표는 어떤 입력 xi를 예측 fθ(xi)에 매핑해서 fθ을 생산하는 것이다. 이 설명을 구체적인 예에서 근거로 들자면, 만약 우리가 건강관리 분야에서 일한다면, 우리는 환자가 심장마비를 일으킬지 여부를 예측하고 싶을 것이다. 심장마비가 있든 없든 이 관찰은 우리의 라벨 y가 될 것이다. 입력 데이터 x는 심장박동수, 수축기 혈압 등과 같은 활력징후일 수 있다. 감독관리는 매개변수 θ 를 선택으로 실시된다. 우리(감독자)는 모델에게 여기서 각 예시 xi는 올바른 라벨과 일치하는 데이터 집합을 제공한다. 확률론적 측면에서, 우리는 일반적으로 조건부 확률 P(y|x)를 추정하는데 관심이 있다.기계학습의 여러 패러다임 중 하나일 뿐이지만, 지도 학습은 산업에서 기계학습의 성공적인 적용의 대부분을 차지한다. 부분적으로, 그것은 많은 중요한 업무들이 설명될 수 있기 때문이다. 특정 데이터 집합에 대해 알 수 없는 것의 확률을 추정할 때: CT 이미지를 통해 암과 암이 아닌 암을 예측할때. 영어로 된 문장이 주어지면, 프랑스어로 정확한 번역을할때. 이번 달 재무보고 자료를 토대로 다음 달 주식 가격을 예측때 등등이다. "입력으로부터 대상 예측"이라는 간단한 설명에도 불구하고 지도 학습은 (다른 고려사항 중) 입력과 출력의 유형, 크기 및 수에 따라 매우 많은 형식들이 필요하고 또한 모델링 결정이 필요하다. 예를 들어, 텍스트 또는 시계열 데이터의 문자열과 같은 시퀀스를 처리하고 고정 길이 벡터 표현을 처리하기 위해 서로 다른 모델을 사용한다. 비공식적으로 이 학습 과정은 다음과 같다. 많은 예제를 수집하십시오. 공변량을 알 수 있으며, 공변량 중에서 무작위 부분집합을 선택하여 각 공변량의 참 값 라벨을 획득한다. 때때로 이러한 라벨은 이미 수집된 (예를 들어, 환자가 다음 해 내에 사망했는가?) 다른 경우는 우리는 데이터에 라벨을 붙이기 위해 인간 노동력을 사용해야 될 수도 있는(예: 범주에 이미지 할당)것들이 사용 가능한 데이터들이다.
인공지능과 분류 (0) | 2020.07.04 |
---|---|
인공지능과 회귀분석 (0) | 2020.06.30 |
인공지능 구성요소 (0) | 2020.06.26 |
인공지능과 머신 러닝 (0) | 2020.06.24 |
인공지능과 딥러닝 (0) | 2020.06.23 |
댓글 영역