π₯οΈ Programming/Python
%load_ext atoreload %autoreload 2 `%autoreload 2`μ μλ―Έλ νμ΄μ¬ μ½λλ₯Ό μ€ννκΈ° μ μ νμ λͺ¨λμ ReloadνλΌλ μλ―Έμ΄λ€. λͺ¨λμ΄ μ¬μ© μ€μΈ κ²½μ°μλ μλμΌλ‘ λ€μ λ‘λ κ°μ λλ ν 리 λ΄ λͺ¨λμ λΆλ¬μ€λ λ° μ¬μ© Reference [1] https://m.blog.naver.com/wideeyed/221225290242 [2] https://rogerheederer.github.io/Colab_ModuleReload/
π₯οΈ Programming/Pytorch
νμ΄μ¬ μ½λλ₯Ό 보면 `if __name__ == '__main__':` μ΄λ° μ½λλ₯Ό νμΈν μ μλ€. μ΄λ νμ΄μ¬ μ½λλ₯Ό λͺ¨λλ‘ μ¬μ©ν λμ μ§μ μ€νν λλ₯Ό ꡬλΆνκΈ° μν΄ μ¬μ©νλ μ½λ ν¨ν΄μΌλ‘. ν΄λΉ λͺ¨λμ΄ μν¬νΈλ κ²½μ°κ° μλλΌ μΈν°ν리ν°μμ μ§μ μ€νλ κ²½μ°μλ§ ifλ¬Έ μ½λλ₯Ό μ€ννλΌλ λͺ
λ Ήμ΄μ΄λ€. λ€μκ³Ό κ°μ μ½λ μμκ° μλ€κ³ νμ. # my_module.py def my_function(): print("λͺ¨λ λ΄ ν¨μ μ€ν") if __name__ == '__main__': print("μ§μ μ€νλ¨") μ¬κΈ°μ λ€λ₯Έ λͺ¨λ `another_module.py`μμ λ€μκ³Ό κ°μ΄ `my_function()`μ΄λΌλ ν¨μλ₯Ό νΈμΆνλ©΄ "λͺ¨λ λ΄ ν¨μ μ€ν"μ΄λΌλ μ€ν κ²°κ³Όκ° λμ¨λ€. # another_mo..
π₯οΈ Programming/Pytorch
def training(epoch, model, trainloader, validloader): correct = 0 total = 0 running_loss = 0 model.train() for b in trainloader: x, y = b.text, b.label x, y = x.to(device), y.to(device) # λ°λμ λͺ¨λΈκ³Ό κ°μ device y_pred = model(x) loss = loss_fn(y_pred, y) optimizer.zero_grad() loss.backward() optimizer.step() with torch.no_grad(): # μΆλ‘ y_pred = torch.argmax(y_pred, dim=1) correct += (y_pred == y).sum(..
π₯οΈ Programming/Pytorch
nn.ReLU() νμ΄ν μΉμ μ κ²½λ§ λͺ¨λ μ€ νλμΈ νμ±ν ν¨μ λͺ¨λ `nn.Sequential()` λͺ¨λΈμ μΆκ°ν μ μλ `nn.Module`μ λ§λ¬ λͺ¨λΈμ `__init__` λ©μλμμ λ μ΄μ΄λ‘ μ΄κΈ°νλλ©°, κ·Έ λ μ΄μ΄κ° `forward()` λ©μλμμ μ¬μ©λ λ νμ±ν ν¨μκ° μ μ© F.relu() νμ΄ν μΉμ ν¨μ λΌμ΄λΈλ¬λ¦¬μΈ `torch.nn.functional`μ ν¨μ ν¨μλ‘μ μ£Όλ‘ λͺ¨λΈμ forward μ°μ° λ΄μμ νμ±ν ν¨μλ₯Ό μ μ©νλ λ° μ¬μ© λͺ¨λΈμ forward λ©μλμμ ν¨μλ‘ μ§μ νΈμΆ https://discuss.pytorch.org/t/whats-the-difference-between-nn-relu-vs-f-relu/27599 https://asidefine.tistory.com/80