Deep Learning (10) 썸네일형 리스트형 learning rate를 옵티마이저에서 셋팅하는 코드(수정 필요) learning rate란 ? 디센딩의 발걸음 보폭 크기 learning rate를 옵티마이저에서 셋팅하는 코드 compile 의 optimizer를 설정하는 파라미터를 바로 사용하지않고 tf.keras.optimizers.사용하고자 하는 모델(learning_rate = ) 를 사용한다. 머신 러닝 - epoch, batch size의 의미 ▶ 알고리즘이 iterative 하다는 것: gradient descent와 같이 결과를 내기 위해서 여러 번의 최적화 과정을 거쳐야 되는 알고리즘 ▶ 다루어야 할 데이터가 너무 많기도 하고(메모리가 부족하기도 하고) 한 번의 계산으로 최적화된 값을 찾는 것은 힘듭니다. 따라서, 머신 러닝에서 최적화(optimization)를 할 때는 일반적으로 여러 번 학습 과정을 거칩니다. 또한, 한 번의 학습 과정 역시 사용하는 데이터를 나누는 방식으로 세분화 시킵니다. 이때, epoch, batch size, iteration라는 개념이 필요합니다. - epoch One Epoch is when an ENTIRE dataset is passed forward and backward through the neur.. 이전 1 2 다음