본문 바로가기

전체 글92

[하계모각소] 2022.08.16(화) -7주차 모임 종료 7주차 계획 1. long-tail problem 공부 https://darkslateblue.tistory.com/94 2022. 8. 16.
Deep Long-Tailed Learning: A Survey 1. Introduction training sample은 특정 작은 부분은 많은 sample들을 갖고 나머지 대다수 부분은 적은 sample을 갖는 long-tailed class distribution을 갖는다. 이러한 training sample 개수의 class imbalance는 deep network의 훈련을 어렵게 만든다. trained model은 많은 training data를 가지는 head class로 편향되고, 제한된 data의 tail class에 대해서는 낮은 성능을 보이게 된다. 따라서, common practice로 훈련한 deep model은 long-tailed class imbalance로 인해 실재 application을 handle하지 못한다. 본 페이퍼에서는 존재하.. 2022. 8. 16.
[하계모각소] 2022.08.16(화) -7주차 모임 시작 7주차 계획 1. long-tail problem 공부 2022. 8. 16.
[하계모각소] 2022.08.09(화) -6주차 모임 종료 6주차 계획 1. 밑바닥부터 시작하는 딥러닝 4장(수치해석부분) 읽고 정리 중간에 계획을 수정하여 optimization 공부를 진행하였다. https://darkslateblue.tistory.com/91 Optimization 1. Optimization Optimization은 loss function을 최소화하는 파라미터 W를 찾는 과정이다. Optimization의 목적은 loss function을 최소화하는 W를 찾는 것이다. (1) Strategy #1: A first very bad idea solutio.. darkslateblue.tistory.com 2022. 8. 9.
Optimization 1. Optimization Optimization은 loss function을 최소화하는 파라미터 W를 찾는 과정이다. Optimization의 목적은 loss function을 최소화하는 W를 찾는 것이다. (1) Strategy #1: A first very bad idea solution: Random search 주어진 파라미터 W에 따른 성능을 측정하는 것은 매우 간단하기 때문에 무작위로 파라미터를 넣은 후 넣어 본 값 중 제일 좋은 값을 기록하는 것이다. 이 방법으로 얻은 가장 높은 정확도는 15.5%로, 무식한 방법인 것에 비해 정확도가 그리 나쁜것은 아니지만 거의 쓰이지 않는 방식이다. (2) Strategy #2: Random Local Search 임의의 W에서 시작한 뒤 임의의 방향.. 2022. 8. 9.
[하계모각소] 2022.08.09(화) -6주차 모임 시작 6주차 계획 1. 밑바닥부터 시작하는 딥러닝 4장(수치해석부분) 읽고 정리 2022. 8. 9.