1. Introduction
ResNet은 이해하기 쉬우면서 모델의 성능을 향상시켰다는 점에서 많이 활용되고 있다.
ResNet의 가장 큰 특징은 잔여학습을 이용했다는 점이다.
딥러닝은 지금까지 망을 깊게 할수록 성능이 높을것이라고 생각해왔었는데
위 그림을 보면 오히려 56 layer를 갖는 네트워크가 20 layer를 갖는 네트워크보다 성능이 좋지 않은 것을 확인할 수 있다.
ResNet은 이러한 문제를 잔여 학습(residual learning)을 이용해 개선하였다.
residual block의 역할
- 네트워크에 대한 optimization 난이도 낮춤
- H(x)를 학습하는것이 어려우므로 대신 F(x)= H(x)-x를 학습한다.
- 학습된 x는 그대로 가져오고, 추가적으로 F(x)를 더해줌 => 전체를 학습하는 것보다 쉽다.
2. Residual Learning
본 논문에서는 하나의 블록을 다음과 같이 정의하였다.
F는 residual mapping 을 의미하고 x는 shortcut connection을 의미한다.
또한, input dimension과 output dimension이 같지 않을때, Ws를 곱해줌으로서 dimension을 match 시킬수있다고 말한다.
가장 왼쪽에 있는게 이전연구에서 제안되었던 VGG Network이고,
비교를 위해서 34 layer plain network를 만들고, 여기에 residual block을 사용한것으로 모델을 바꾼게 가장 오른쪽 그림이다.
ResNet 같은 경우 3x3 convolution filter를 두개씩 묶어 residual 형태로 학습을 진행하였다.
(점선으로 표시된 부분은 input과 output dimension이 맞지 않아 dimension을 맞춰주는 작업을 하였다는 의미)
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.backends.cudnn as cudnn
import torch.optim as optim
import os
# ResNet18을 위해 최대한 간단히 수정한 BasicBlock 클래스 정의
class BasicBlock(nn.Module):
def __init__(self, in_planes, planes, stride=1):
super(BasicBlock, self).__init__()
# 3x3 필터를 사용 (너비와 높이를 줄일 때는 stride 값 조절)
self.conv1 = nn.Conv2d(in_planes, planes, kernel_size=3, stride=stride, padding=1, bias=False)
self.bn1 = nn.BatchNorm2d(planes) # 배치 정규화(batch normalization)
# 3x3 필터를 사용 (패딩을 1만큼 주기 때문에 너비와 높이가 동일)
self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=1, padding=1, bias=False)
self.bn2 = nn.BatchNorm2d(planes) # 배치 정규화(batch normalization)
self.shortcut = nn.Sequential() # identity인 경우
if stride != 1: # stride가 1이 아니라면, Identity mapping이 아닌 경우
self.shortcut = nn.Sequential(
nn.Conv2d(in_planes, planes, kernel_size=1, stride=stride, bias=False),
nn.BatchNorm2d(planes)
)
def forward(self, x):
out = F.relu(self.bn1(self.conv1(x)))
out = self.bn2(self.conv2(out))
out += self.shortcut(x) # (핵심) skip connection
out = F.relu(out)
return out
# ResNet 클래스 정의
class ResNet(nn.Module):
def __init__(self, block, num_blocks, num_classes=10):
super(ResNet, self).__init__()
self.in_planes = 64
# 64개의 3x3 필터(filter)를 사용
self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1, bias=False)
self.bn1 = nn.BatchNorm2d(64)
self.layer1 = self._make_layer(block, 64, num_blocks[0], stride=1)
self.layer2 = self._make_layer(block, 128, num_blocks[1], stride=2)
self.layer3 = self._make_layer(block, 256, num_blocks[2], stride=2)
self.layer4 = self._make_layer(block, 512, num_blocks[3], stride=2)
self.linear = nn.Linear(512, num_classes)
def _make_layer(self, block, planes, num_blocks, stride):
strides = [stride] + [1] * (num_blocks - 1)
layers = []
for stride in strides:
layers.append(block(self.in_planes, planes, stride))
self.in_planes = planes # 다음 레이어를 위해 채널 수 변경
return nn.Sequential(*layers)
def forward(self, x):
out = F.relu(self.bn1(self.conv1(x)))
out = self.layer1(out)
out = self.layer2(out)
out = self.layer3(out)
out = self.layer4(out)
out = F.avg_pool2d(out, 4)
out = out.view(out.size(0), -1)
out = self.linear(out)
return out
# ResNet18 함수 정의
def ResNet18():
return ResNet(BasicBlock, [2, 2, 2, 2])
import torchvision
import torchvision.transforms as transforms
transform_train = transforms.Compose([
transforms.RandomCrop(32, padding=4),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
])
transform_test = transforms.Compose([
transforms.ToTensor(),
])
train_dataset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform_train)
test_dataset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform_test)
train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=128, shuffle=True, num_workers=4)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=100, shuffle=False, num_workers=4)
device = 'cuda'
net = ResNet18()
net = net.to(device)
net = torch.nn.DataParallel(net)
cudnn.benchmark = True
learning_rate = 0.1
file_name = 'resnet18_cifar10.pt'
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9, weight_decay=0.0002)
def train(epoch):
print('\n[ Train epoch: %d ]' % epoch)
net.train()
train_loss = 0
correct = 0
total = 0
for batch_idx, (inputs, targets) in enumerate(train_loader):
inputs, targets = inputs.to(device), targets.to(device)
optimizer.zero_grad()
benign_outputs = net(inputs)
loss = criterion(benign_outputs, targets)
loss.backward()
optimizer.step()
train_loss += loss.item()
_, predicted = benign_outputs.max(1)
total += targets.size(0)
correct += predicted.eq(targets).sum().item()
if batch_idx % 100 == 0:
print('\nCurrent batch:', str(batch_idx))
print('Current benign train accuracy:', str(predicted.eq(targets).sum().item() / targets.size(0)))
print('Current benign train loss:', loss.item())
print('\nTotal benign train accuarcy:', 100. * correct / total)
print('Total benign train loss:', train_loss)
def test(epoch):
print('\n[ Test epoch: %d ]' % epoch)
net.eval()
loss = 0
correct = 0
total = 0
for batch_idx, (inputs, targets) in enumerate(test_loader):
inputs, targets = inputs.to(device), targets.to(device)
total += targets.size(0)
outputs = net(inputs)
loss += criterion(outputs, targets).item()
_, predicted = outputs.max(1)
correct += predicted.eq(targets).sum().item()
print('\nTest accuarcy:', 100. * correct / total)
print('Test average loss:', loss / total)
state = {
'net': net.state_dict()
}
if not os.path.isdir('checkpoint'):
os.mkdir('checkpoint')
torch.save(state, './checkpoint/' + file_name)
print('Model Saved!')
def adjust_learning_rate(optimizer, epoch):
lr = learning_rate
if epoch >= 100:
lr /= 10
if epoch >= 150:
lr /= 10
for param_group in optimizer.param_groups:
param_group['lr'] = lr
# for epoch in range(0, 200):
for epoch in range(0, 20):
adjust_learning_rate(optimizer, epoch)
train(epoch)
test(epoch)
논문 링크 : https://arxiv.org/abs/1512.03385
'Group Study (2022-2023) > Machine Learning' 카테고리의 다른 글
[Machine Learning] 6주차 스터디 - Object Detection: YOLOv1~v2 (0) | 2022.11.15 |
---|---|
[Machine Learning] 5주차 스터디 - Object Detection: -stage-detector (0) | 2022.11.13 |
[Machine Learning] 3주차 스터디 - CNN의 이해(3) (0) | 2022.11.01 |
[Machine Learning] 3주차 스터디 - Softmax Regression (0) | 2022.10.31 |
[Machine Learning] 4주차 스터디 - Application & Tips (0) | 2022.10.31 |