본문 바로가기
반응형

파이토치5

[파이토치] 05 - Training step 내부 동작 알아보기 Lightning 모듈 내부 해부¶ 일반적인 pytorch 에서 학습 sequence 는 다음과 같다. (traning loop) In [10]: def train_loop( dataloader, model, lossfn, optimizer): size = len(dataloader.dataset) for batch, (x, y) in enumerate(dataloader): pred = model(x) # model class 가 callable 한 경우! # forward를 직접 불러도 결과는 같겠지만, 권장하지 않음 -> 모델을 직접 call해서 부르지 않으면 hook 이 동장하지 않음! loss = lossfn( pred, y) if batch%100 == 0 : loss, current = lo.. 2023. 10. 21.
[파이토치] 04 - 모델의 시각화 모델 시각화¶ In [2]: import torch from torch import nn from torch.nn import functional as F import torch.optim as optim import pytorch_lightning as pl from pytorch_lightning.accelerators import accelerator from torchmetrics import functional as FM from torchinfo import summary from torchvision.datasets import MNIST import torchvision.transforms as transforms import torch.utils.data as data from torch.. 2023. 10. 21.
[파이토치] 03 - 모델을 만드는 여러가지 방법 모듈을 만드는 법¶ 파이토치 (라이트닝 포함) 신경망의 뼈대라고 할 수 있는 모듈을 만드는 방법은 여러가지가 있는데, 그중에서 대표적인 몇가지 정리하면 In [7]: import pytorch_lightning as pl from torchinfo import summary Lighting 의 모듈 컨테이너를 사용하는 방법¶ 가장 기본적으로 사용되는 방법으로 init 에서 필요한 layer들을 정의하고, 그 layer 들이 어떻게 서로 연결되는지를 forward 에서 정의하는 방법 In [12]: import torch.nn as nn import torch.nn.functional as F class Model( pl.LightningModule ): def __init__(self): super()... 2023. 10. 21.
[파이토치] 02 - 기초모델 리뷰 그리고 개선 In [1]: import torch from torch import nn from torch.nn import functional as F import torch.optim as optim import pytorch_lightning as pl from pytorch_lightning.accelerators import accelerator from torchmetrics import functional as FM from torchinfo import summary from torchvision.datasets import MNIST import torchvision.transforms as transforms import torch.utils.data as data from torch.utils.d.. 2023. 9. 9.
반응형