본문 바로가기
반응형

전체 글201

[파이토치] 05 - Training step 내부 동작 알아보기 Lightning 모듈 내부 해부¶ 일반적인 pytorch 에서 학습 sequence 는 다음과 같다. (traning loop) In [10]: def train_loop( dataloader, model, lossfn, optimizer): size = len(dataloader.dataset) for batch, (x, y) in enumerate(dataloader): pred = model(x) # model class 가 callable 한 경우! # forward를 직접 불러도 결과는 같겠지만, 권장하지 않음 -> 모델을 직접 call해서 부르지 않으면 hook 이 동장하지 않음! loss = lossfn( pred, y) if batch%100 == 0 : loss, current = lo.. 2023. 10. 21.
[파이토치] 04 - 모델의 시각화 모델 시각화¶ In [2]: import torch from torch import nn from torch.nn import functional as F import torch.optim as optim import pytorch_lightning as pl from pytorch_lightning.accelerators import accelerator from torchmetrics import functional as FM from torchinfo import summary from torchvision.datasets import MNIST import torchvision.transforms as transforms import torch.utils.data as data from torch.. 2023. 10. 21.
[파이토치] 03 - 모델을 만드는 여러가지 방법 모듈을 만드는 법¶ 파이토치 (라이트닝 포함) 신경망의 뼈대라고 할 수 있는 모듈을 만드는 방법은 여러가지가 있는데, 그중에서 대표적인 몇가지 정리하면 In [7]: import pytorch_lightning as pl from torchinfo import summary Lighting 의 모듈 컨테이너를 사용하는 방법¶ 가장 기본적으로 사용되는 방법으로 init 에서 필요한 layer들을 정의하고, 그 layer 들이 어떻게 서로 연결되는지를 forward 에서 정의하는 방법 In [12]: import torch.nn as nn import torch.nn.functional as F class Model( pl.LightningModule ): def __init__(self): super()... 2023. 10. 21.
[ Keras] 03 - 회귀하듯 손글씩 분류 해보기 (2개 카테고리에 대하여) 회귀(값 맞추기)에서 분류(종류 맞추기)로 넘거가기¶회귀와 분류는 비슷해보이지만 딥러닝에서는 가장 마지막의 출력과 Loss ftn 을 어떻게 사용하는지에 따라 미묘하게 다르다, 그 차이를 상세한 예를 들어서 설명해보기 위해 아래 코드를 예제로 만들었다 먼저 가장 흔하게 사용하는 MNIST 손글씨 데이터를 로드한다. Keras 페키지에 자동으로 포함되어 있으므로, 단순히 keras.datasets.mnist.load_data 를 실행하는 것 만으로도 데이터가 로드된다. 데이터는 기본적으로 28 * 28 pixel에 쓰여진 숫자들이다. In [ ]: import numpy as np from tensorflow import keras from tensorflow.keras import layers impor.. 2023. 10. 9.
반응형