tensorflow regression 예제

학습 세트를 초기화한 후, 반복적으로 학습 세트를 실행하고, 트레이닝 예제를 접할 때마다, 우리는 그 단일 트레이닝 예제에 대해서만 에러의 그라데이션에 따라 가중치를 업데이트합니다. 다음 코드를 사용하면 TensorFlow 라이브러리를 사용하여 주어진 데이터에 가장 적합한 라인을 만들 수 있습니다. 난수를 예측 할 수 있도록, 우리는 Numpy와 텐서 플로우 모두에 대한 고정 시드를 정의합니다. 선형 회귀는 주어진 연속 데이터 집합에서 함수 또는 관계를 학습할 수 있는 매우 일반적인 통계 방법입니다. 예를 들어, 우리는 x와 해당 y의 일부 데이터 포인트를 부여하고 우리는 가설이라고 그들 사이의 관계를 배울 필요가있다. 이 run() 함수에서는 generate_dataset() 및 linear_regression()을 호출하여 x_batch, y_batch, x, y, y, y_pred 및 손실을 가져옵니다. 위로 스크롤하여 이 두 함수에 대한 설명을 확인합니다. 감독 학습의 중요한 알고리즘은 선형 회귀입니다. 이 기사에서는 [1] (참조 섹션)에서 언급 한 다음 표기법 (참조 섹션)을 다시 사용할 것입니다. 텐서플로우를 사용하여 구현하기 전에 선형 회귀를 간략하게 요약합니다. 선형 회귀 또는 텐서플로우의 세부 정보는 자세히 설명하지 않으므로 자세한 내용은 다음 문서를 참조하십시오.

이제 자리 표시자 X와 Y를 정의하여 모델을 만들기 시작하여 교육 예제 X와 Y를 교육 프로세스 중에 최적화 프로그램에 공급할 수 있습니다. 선형 회귀는 매우 간단한 문제이며 scikit 학습 패키지와 같은 인기있는 모듈로 해결할 수 있다는 점을 감안할 때 기계 학습의 여정에 좋은 시작입니다. 이 문서에서는 TensorFlow를 사용하여 선형 회귀를 구현하는 방법에 대한 라인별 접근 방식을 설명합니다. 위의 선형 회귀 방정식을 살펴보면 여러 반복을 통해 경사(W) 및 바이어스(b)의 그라데이션을 학습하는 그래프를 생성합니다. 각 반복에서 입력 y를 예측된 y와 비교하여 간격(손실)을 닫는 것을 목표로 합니다. 이것은 우리가 X의 입력이 우리에게 우리가 원하는 y를 줄 수 있도록 W와 b를 수정하려는 것을 의미합니다. 선형 회귀를 해결하는 것은 최적 맞춤 또는 추세선의 선을 찾는 것으로도 알려져 있습니다.