pytorch2 [파이토치 스터디] 클래스 불균형 다루기 (가중 무작위 샘플링, 가중 손실 함수) 📚 가중 무작위 샘플링 (Weighted Random Sampling) 일반적으로 분류 문제에서 클래스가 불균형할 경우 과적합을 야기할 가능성이 높다. 딥러닝 모델 학습시에는 전체 데이터가 불균형 하더라도, 미니 배치를 뽑을 때 각 클래스를 균형 있게 뽑아서 학습시킬 수 있다. 이 방식을 가중 무작위 샘플링(weighted random sampling) 이라고 한다. 📌 가중치 함수 설정 : torchvision.datasets.ImageFolder 사용 def make_weights(labels, nclasses): labels = np.array(labels) # where, unique 함수를 사용하기 위해 numpy로 변환한다. weight_list = [] # 가중치를 저장하는 배열을 생성한다... 2022. 2. 23. [파이토치 스터디] 신경망으로 회귀분석 + Cross Validation ◈ 모델 구조 확인 파이토치에서 기본적인 모델 구조와 파라미터를 확인하는 방법 import torch from torch import nn import torch.nn.functional as F from torchsummary import summary class Regressor(nn.Module): def __init__(self): super().__init__() self.fc1 = nn.Linear(13, 50, bias=True) #첫 번째 레이어 self.fc2 = nn.Linear(50, 30, bias=True) #두 번째 레이어 self.fc3 = nn.Linear(30, 1, bias=True) #출력 레이어 self.dropout = nn.Dropout(0.5) #연산 마다 50%.. 2022. 1. 29. 이전 1 다음