[Obsidian] 플러그인_추천_및_10개월_사용후기.md
·
🌠 etc.
[Elasticsearch] Elasticsearch 기본 개념 및 설치, kibana 연동하기
·
❔ Back-end | etc.
[Obsidian] Notion vs Obsidian, 내가 Obsidian으로 이사한 이유
·
🌠 etc.
[PostgreSQL] Windows 외부 접속 허용 설정 및 외부 접속 방법
·
❔ Back-end | etc.
[Elasticsearch] Logstash를 통해 PostgreSQL과 Elastic Stack 연동하기
·
❔ Back-end | etc.
[NVIDIA] 윈도우에서 가상머신(WSL)으로 Jetson AGX Xavier 부팅하기
·
🌠 etc.
[Monitoring System] 5. Fast API 로 이틀만에 백엔드 구축하기(feat. SQLAlchemy, PostgreSQL) (1)
·
🧊 Monitoring System
[강화학습] gym으로 강화학습 custom 환경 생성부터 Dueling DDQN 학습까지
·
📮 Reinforcement Learning
[FCM] Firebase Cloud Messaging Vanilla JS + FastAPI에 적용하기
·
🐥 Web
[Obsidian] 커뮤니티 플러그인 추천 및 Git을 활용한 연동법
·
🌠 etc.

Recent

[논문 구현] Transformer 텐서플로우로 구현하기
·
📘 논문 & 모델 리뷰
모델을 돌리기 위해서 만든 건 아니고, 이전에 공부한 내용을 코드로 구현해보면서 이해를 깊이하는 시간을 갖고자 만들어보았다.따라서 실제 데이터 넣고 학습했을 때 구데기일 수 있다는 점을 참고해주시길...1. Attention 구현하기 $$Attention = softmax(\frac{QK^{T}}{\sqrt{ d_{k} }})V$$ 이 공식에 맞게 구현하면 된다. 여기서 $d_{k}$ 는 k의 차원수이다. 차례차례 보면, 순서대로 차근차근 진행하면 된다. 마스크 적용에 관한 건은 뒤에서.def scaled_dot_product_attention(query, key, value, mask=None): # QK^T matmul_qk = tf.matmul(query, key, transp..
[Linux/CUDA] Ubuntu 24.04 LTS에 CUDA 및 Tensorflow GPU 설치하기
·
🌠 etc.
기존에 쓰던 서버의 Ubuntu가 23.10으로 설정되어 있어서 24.04 LTS로 버전업하는 김에 그래픽 드라이버도 새로 설치하고, CUDA와 cudnn도 싹 새로 설치해서 개발환경을 만들기로 결정했다.과정은 다소 지난했으나 결론은 간단하므로 빠르게 정리해보겠다.1. Ubuntu 24.04 LTS 설치Ubuntu 23.10은 지원이 24년 7월 경부터 중단되었으므로 LTS 버전으로 업그레이드가 필요하다. 방법은 아래와 같다.먼저 시스템 업데이트를 진행한다. $ sudo apt update$ sudo apt upgrade$ sudo apt dist-upgrade다음으로는 업데이트 매니저를 설치한다. 이를 통해서 우분투 버전 업그레이드가 가능하다. 참고로 다운그레이드는 지원하지 않으니 업그레이드 전에 충분..
[Paper Review] Transformer - Attention is All You Need
·
📘 논문 & 모델 리뷰
분명 내가 딥러닝에 입문했을 때도 Transformer가 각광받고 있었는데 아직까지도 Transformer가 각광받고 있다. 세상은 변하는데... 참 응용도도 높고 성능이 좋은 모델임에 틀림없다.예전에 공부해본바 있지만 경험치가 쌓인 지금 좀 더 지식을 공고히할 겸 정리해봤다. 글로 옮기기 귀찮아서 손글씨 사진으로 대체한다. 1. Attention 개념 이해하기2. Self-Attention이란?3. Transformer 구조4. Transformer의 Query, Key, Value 구해보기5. Multi-head Attention6. Encoder와 Decoder에서 Self-Attention의 동작7. Masked Self Attention8. 기타 개념 및 기법8.1. Feed Forward8.2..
[Paper Review] Mamba - Linear Time Sequence Modeling with Selective State Spaces 2
·
📘 논문 & 모델 리뷰
3. Selective State Space Models3.1 Selection as a Means of Compression병합 작업에 관한 두가지 실행 예시Selective Copying : 기억할 토큰의 위치를 바꿔 Copying Task를 수정한다. 관련있는 토큰을 기억하고 관련없는 토큰을 걸러내려면 내용 인식 추론(content-aware resoning)이 필요하다.Induction Heads : 적절한 컨텍스트에서 출력을 낼 시기를 알기 위해서는 내용 인식 추론이 필요하다. LLM의 동작 과정 설명을 위해 가장 많이 쓰이는 매커니즘.이 작업은 LTI 모델의 실패한 모드를 보여준다. 회귀적 관점에서 constant dynamics(여기에서는 $\bar{A}, \bar{B}$)는 context에..
[Paper Review] Mamba - Linear Time Sequence Modeling with Selective State Spaces 1
·
📘 논문 & 모델 리뷰
나온지 벌써 1년도 넘었지만 최신 논문 리뷰를 안 한지가 백만년 정도 된 것 같아서 한 번 읽어보는 mamba... 그리 정확한 리뷰는 아닐 수 있습니다. 사실 번역에 가깝고 좀 더 이해해보면서 내용 수정하겠습니다. 1. Introduction최근들어 Structured State Space Sequence Models(SSMs) 가 시퀀스 모델링 구조 분야에서 유망한 클래스로 등장했다. 전통적인 state space models에 영감을 받아 CNN과 RNN의 통합을 조율한다(interpreted).Mamba에서는 selective state space model의 새로운 종류를 제안한다. 시퀄스 길이에 따라 선형적으로 확장하면서 transformer의 모델링 파워를 따라잡기 위해서 몇몇의 axes(여..
[강화학습] Reward & Hyperparameter Tuning
·
카테고리 없음
https://essay.utwente.nl/103170/1/Six_Dijkstra_MA_ET.pdf power reward + CRAH setpoint reward, serer outlet temperature penalty + action fluctuation penalty = rewardReward function$$r_{t_{i}} = r_{P}(P_{t_{i}}^{HVAC}) \ + \ \lambda_{T_{SP}^{AL_{1}}} \cdot r_{T}(T_{t_{i}}^{AL_{1}}) + \lambda_{T_{constr}^{AL_{2}}} \ \cdot \ p_{T}(T_{t_{i}}^{AL_{2}}) + \lambda_{a} \ \cdot \ p_{a}(\Delta a_{t_{i}}) $..
[강화학습] PPO(Proximal Policy Optimization) 논문 정리
·
카테고리 없음
아오 티스토리 LaTEX 진짜 못해먹겠네선행 TRPO 논문 리뷰는 아래 링크 참고. 보고 오면 좀 더 알아보기 쉬울 것으로 예상됨(일단 저는 그랬습니다) [강화학습] TRPO(Trust Region Policy Optimization) 논문 정리PPO를 공부하려고 했는데 이 논문이 선행되어야한다는 이야기를 들어서 가볍게 논문을 읽어봤다. 아직 강화학습 논문 읽는 건 익숙하지 않아서 시간이 꽤 걸렸다. 수학적 개념이 적어서 최대한dnai-deny.tistory.com PPO(Proximal Policy Optimization)On-policy, actor-critic 알고리즘Value function 없이 확률적인 policy를 곧장 학습함policy update를 포착하는 novel objective f..
[강화학습] TRPO(Trust Region Policy Optimization) 논문 정리
·
📮 Reinforcement Learning
PPO를 공부하려고 했는데 이 논문이 선행되어야한다는 이야기를 들어서 가볍게 논문을 읽어봤다. 아직 강화학습 논문 읽는 건 익숙하지 않아서 시간이 꽤 걸렸다. 수학적 개념이 적어서 최대한 꼼꼼히 이해할 수 있게 정리해봤는데, 다른 사람들에게도 도움이 되었으면 해서 포스팅한다.[https://arxiv.org/abs/1502.05477]TRPO(Trust Region Policy Optimization)url: https://arxiv.org/abs/1502.05477title: "Trust Region Policy Optimization"description: "We describe an iterative procedure for optimizing policies, with guaranteed mono..
[Obsidian] 플러그인_추천_및_10개월_사용후기.md
·
🌠 etc.
모 지인이 obsidian이 어렵다고 쓰는 법을 노션(?)에 정리해달라는 말을 들어서 간단하게 적어보는 obsidian 1년 사용기 및 방법이다. 이전에 써서 올린 적이 있던 notion과의 비교글, obsidian 플러그인 및 git 연동법에 이어 세 번째 글이다. 아마 이 글 이후로 다시 obsidian에 대해 다루지는 않을 듯 하다. [Obsidian] Notion vs Obsidian, 내가 Obsidian으로 이사한 이유2~3주 전이었나? 업무시간 중간에 Notion 서버에 잠시간 장애가 발생했던 적이 있다. 나는 내 기억력을 안 믿는 편이라 해야할 업무부터 일하면서 리서치한 내용 등을 노션에 다 기록해두고 쓰고dnai-deny.tistory.com  [Obsidian] 커뮤니티 플러그인 추천 ..
[Model Compression] 모델 양자화(Model Optimization) with Tensorflow
·
❔ Q & etc.
딥러닝 모델을 경량화하는 것은 모델 학습 이후 실제 문제에 딥러닝 해법을 적용하는 과정에 있어서 실행 시간, 예측에 필요한 리소스 소모량을 줄이기 위해서 필요한 과정이다.모델 경량화에는 (내가 알고 있기로는) 세 가지 방법이 있는데,모델 양자화(비트 수를 줄이는 방식)모델 pruning(중요하지 않은 부분을 버리는 방식)그냥 모델 설계를 잘하기중에 이미 학습한 모델에 있어서 가장 쉬운 양자화를 우선 하기로 결정하였다. Tensorflow 기반의 모델을 양자화하는 예제를 기록해둔다.Tensorflow로 구성되어 학습하고 가중치를 .h5 확장자로 저장한 모델1. 모델 양자화a. 모델 불러오기import tensorflow as tfmodel = your_model(parameter)model.load_wei..
[FCM] Firebase Cloud Messaging Vanilla JS + FastAPI에 적용하기
·
🐥 Web
FCM 설정공식 예제에서는 Node JS 기준으로 설명되어 있음https://firebase.google.com/docs/cloud-messaging/js/client?hl=ko&_gl=1*16582yh*_up*MQ..*_ga*MTk1Nzk3ODc5Mi4xNzEzMjI3MTcy*_ga_CW55HF8NVT*MTcxMzIyNzE3Mi4xLjAuMTcxMzIyNzE3Mi4wLjAuMA..#web-modular-apiVanilla JS 환경에서 하는 법 정리 자바스크립트 Firebase 클라우드 메시징 클라이언트 앱 설정Google I/O 2023에서 Firebase의 주요 소식을 확인하세요. 자세히 알아보기 의견 보내기 자바스크립트 Firebase 클라우드 메시징 클라이언트 앱 설정 컬렉션을 사용해 정리하기 ..
[라이트 딥러닝] n. Backpropagation 수식 풀이 및 검증
·
🦄 라이트 딥러닝
출처: https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/ A Step by Step Backpropagation Example Background Backpropagation is a common method for training a neural network. There is no shortage of papers online that attempt to explain how backpropagation works, but few that include an example… mattmazur.com feed forward 계산 1. h1 구하기 $$net_{h1} = 0.05 * 0.15 + 0.1 * 0.2 + 0.35..
[MPC] 4. Optimal Control(2) - Taylor Series 적용, Algebraic Riccati Equation(ARE) 구하기
·
📮 Reinforcement Learning
LQR에 적용 $$V^{*}(x(t), t) = \underset{u[t, t+\Delta t]}{min} \{ \Delta t \cdot l[x(t + \alpha \Delta t), u(t + \alpha \Delta t), t + \alpha \Delta t] + V^{*}(x(t + \Delta t), t+\Delta t) \}$$ 이 식에서 $V^{*}(x(t + \Delta t), t+\Delta t)$ 부분을 위 Taylor Series로 x와 t에 대해서 정리해보자. $x = (x(t), t), v = \Delta t$ 라고 생각하자. 정리하면 아래와 같다. $$V^{*}(x + v) = V^{*}(x) + f'(x)v + f(x)v' + \frac 12 f''(x)v^{2}+ \frac1..
[MPC] 4. Optimal Control(1) - LQR과 Taylor Series(테일러 급수)
·
📮 Reinforcement Learning
optimal control 기초 - LQR(Linear Quadratic Regulator) LQR이 기초라서 요걸로 system : $\dot x = f(x, u, t), x(t_{0}) = x_{0}$ cost function : $$V(x(t_{0}), u, t_{0}) = \int_{t_{0}}^{T} l[x(\tau), u(\tau), \tau]d\tau + m(x(T))$$ 위 cost function을 최소화하는 입력 $u^{*}(t), t_{0}\le t \le T$ 찾기 -> optimal control의 목적 principle of optimality 에 따라 한 해가 최적이면 sub problem의 해도 최적이 된다. $t_{0} < t < t_{1} < T$ 로 $t_{1}$ 추가..
[MPC] 3. 상태(state)와 출력(output) 예측해보기
·
📮 Reinforcement Learning
Input / Output 정리 $N_p$ : 예측하려는 미래 출력 수 $N_c$ : 예측하려는 미래 제어입력 수 경로 추적의 경우, $N_p$개 점을 tracking 하기 위한 $N_c$개 제어 명령... Control Input $\Delta u(k), \Delta u(k+1), \Delta u(k+2), \cdots, \Delta u(k + N_{c} - 1)$ Output $y(k), y(k+1), \cdots, y(k+N_{p})$ $y(k) = Cx(k)$ 이므로 $y(k+1) = Cx(k+1), y(k+2) = Cx(k+2), \cdots$ 로 표현 가능 따라서 예측 state $x(k+1), x(k+2), \cdots, x(k+N_{p})$를 구하면 됨 State variable 구하기 $..
[MPC] 2. 상태 공간 방정식 유도
·
📮 Reinforcement Learning
MPC 상태 공간 방정식 유도 상태공강 방정식 + LTI(Linear TimeINvariant, 선형 시간 불변 시스템)의 경우 => Continuous-time state-space model 상태 방정식 : $$\bar{x} = Ax + Bu$$ 출력 방정식 : $$y = Cx$$ MPC는 discrete 한 환경 => Discrete-time state-space model 상태 방정식 : $$x(k+1) = A_{d}x(k) + B_{d}u(k)$$ 출력 방정식 : $$y(k) = C_{d}x(k)$$ MPC 기본 모델은 Discrete-time aumented state-space model 상태 변수 대신 상태 변수의 변화량 $\Delta x$ 사용 상태 방정식 $${x(k+1) - x(k) ..
[MPC] 1. Model Predictive Control Intro
·
📮 Reinforcement Learning
유튜브 https://www.youtube.com/watch?v=zU9DxmNZ1ng&list=PLSAJDR2d_AUtkWiO_U-p-4VpnXGIorrO-&index=1 블로그 https://sunggoo.tistory.com/65 위 자료를 기반으로 공부한 내용을 가볍게 정리하려고 합니다. 수식 증명이 많겠고, 그 뒤로는 목적에 따라 논문이나 코드 구현을 보면서 추가해보겠습니다. MPC(Model Predictive Control)의 컨셉 기기 상태 변화(dynamics) + 주변 환경 요소 => cost function 제어공학 비선형 / 비볼록(Non-linear, Non-convex) 대상 공부하면서 느끼기에는 강화학습의 향기가 좀 있음 Flow k-1 일 때의 상태 변수를 기반으로 k+1 ~ ..
[etc] Logout 후 뒤로 가기 방지 - BF Cache
·
❔ Back-end | etc.
문제 logout을 한 뒤에 로그인 권한이 필요한 페이지로 뒤로 가기를 눌렀을 때, 데이터가 그대로 노출되는 문제 보안상의 결함으로 수정해야하는 경우 원인 브라우저에서 관리하는 BF Cache(Back-Forward Cache) 웹 페이지를 방문하면 해당 페이지의 css/html/javascript/image 등 모든 리소스를 캐시에 저장 뒤로가기 / 앞으로 가기 버튼을 누르면 서버에 다시 요청하지 않고 캐시 리소스 활용해서 로딩 로그아웃 이후에도 BF Cache가 남아있기 때문에 다시 페이지가 보일 수 있음 해결 방법(Fast API 기준) Jinja Template response 사용 로그인 해야 이용할 수 있는 페이지에 접속 요청을 보내면 라우터에서 access token 확인 권한이 있는 경우 ..
[Math] Mathematics for Machine Learning 2. Linear Algebra
·
❔ Q & etc.
근래에 정말이지 수학 공부의 필요성을 느껴서 MML 이라는 머신러닝 수학의 바이블 같은 책으로 공부를 시작했는데... 일단 영어고(!), 용어가 너무 많고(!), 내용도 어려워서 아주 애를 먹고 있다. 어찌저찌 이해했다고 생각했는데 연습문제를 보니까 또 이야~ 모르겠고 난리다... 답안지를 봐도 이해가 어려운 부분이 많아서 꼼꼼하게 가이드 따라 두세번 풀어봐야 이해가 되지 싶다. 근데 너무 어렵다 ㅎㅋ... 선형대수 강의를 수강했었는데도 내가 들었던 선형대수 강의의 범위보다 더 넓은 듯 하다. 아무튼 아래 링크는 참고한 사이트 등. 한국어 번역 해주신 준별님 정말 감사합니다... 비교하며 보고 있습니다... 교재 - pdf 무료 공개(https://mml-book.github.io/book/mml-boo..
2023년 회고
·
😼 사담
새해를 맞이한만큼 새로운 마음으로, 과거를 발판삼아 나아가자는 의미에서 회고로 시작을 해보려고 합니다. 2023년은 모순적이게도 도전과 안정의 한 해였습니다. 저는 무수한 도전 속에서 삶의 흥미를 되찾고 안정을 얻는 사람인지라 2023년도의 수많은 새로운 도전들이 이전에 개인적인 이유로 불안정했던 마음을 추스리는데 도움이 되었습니다. 3월에 현직장에서 근무를 시작했습니다. 감사하게도 지금 이곳에서 너무나 많은 것들을 배우고, 경험하고, 성장하고 있습니다. 제가 12월까지 10개월간 근무하며 새롭게 도전해서 성과를 내본 것들은 아래와 같습니다. 관련 사항을 공부해서 정리한 블로그를 함께 첨부합니다. - YOLO 기반 object detection [Model Review] YOLOv5 + Roboflow ..