분류 전체보기

    [Paper Review] Mamba - Linear Time Sequence Modeling with Selective State Spaces 2

    3. Selective State Space Models3.1 Selection as a Means of Compression병합 작업에 관한 두가지 실행 예시Selective Copying : 기억할 토큰의 위치를 바꿔 Copying Task를 수정한다. 관련있는 토큰을 기억하고 관련없는 토큰을 걸러내려면 내용 인식 추론(content-aware resoning)이 필요하다.Induction Heads : 적절한 컨텍스트에서 출력을 낼 시기를 알기 위해서는 내용 인식 추론이 필요하다. LLM의 동작 과정 설명을 위해 가장 많이 쓰이는 매커니즘.이 작업은 LTI 모델의 실패한 모드를 보여준다. 회귀적 관점에서 constant dynamics(여기에서는 $\bar{A}, \bar{B}$)는 context에..

    [Paper Review] Mamba - Linear Time Sequence Modeling with Selective State Spaces 1

    나온지 벌써 1년도 넘었지만 최신 논문 리뷰를 안 한지가 백만년 정도 된 것 같아서 한 번 읽어보는 mamba... 그리 정확한 리뷰는 아닐 수 있습니다. 사실 번역에 가깝고 좀 더 이해해보면서 내용 수정하겠습니다. 1. Introduction최근들어 Structured State Space Sequence Models(SSMs) 가 시퀀스 모델링 구조 분야에서 유망한 클래스로 등장했다. 전통적인 state space models에 영감을 받아 CNN과 RNN의 통합을 조율한다(interpreted).Mamba에서는 selective state space model의 새로운 종류를 제안한다. 시퀄스 길이에 따라 선형적으로 확장하면서 transformer의 모델링 파워를 따라잡기 위해서 몇몇의 axes(여..

    [강화학습] Reward & Hyperparameter Tuning

    https://essay.utwente.nl/103170/1/Six_Dijkstra_MA_ET.pdf power reward + CRAH setpoint reward, serer outlet temperature penalty + action fluctuation penalty = rewardReward function$$r_{t_{i}} = r_{P}(P_{t_{i}}^{HVAC}) \ + \ \lambda_{T_{SP}^{AL_{1}}} \cdot r_{T}(T_{t_{i}}^{AL_{1}}) + \lambda_{T_{constr}^{AL_{2}}} \ \cdot \ p_{T}(T_{t_{i}}^{AL_{2}}) + \lambda_{a} \ \cdot \ p_{a}(\Delta a_{t_{i}}) $..

    [강화학습] PPO(Proximal Policy Optimization) 논문 정리

    아오 티스토리 LaTEX 진짜 못해먹겠네선행 TRPO 논문 리뷰는 아래 링크 참고. 보고 오면 좀 더 알아보기 쉬울 것으로 예상됨(일단 저는 그랬습니다) [강화학습] TRPO(Trust Region Policy Optimization) 논문 정리PPO를 공부하려고 했는데 이 논문이 선행되어야한다는 이야기를 들어서 가볍게 논문을 읽어봤다. 아직 강화학습 논문 읽는 건 익숙하지 않아서 시간이 꽤 걸렸다. 수학적 개념이 적어서 최대한dnai-deny.tistory.com PPO(Proximal Policy Optimization)On-policy, actor-critic 알고리즘Value function 없이 확률적인 policy를 곧장 학습함policy update를 포착하는 novel objective f..

    [강화학습] TRPO(Trust Region Policy Optimization) 논문 정리

    PPO를 공부하려고 했는데 이 논문이 선행되어야한다는 이야기를 들어서 가볍게 논문을 읽어봤다. 아직 강화학습 논문 읽는 건 익숙하지 않아서 시간이 꽤 걸렸다. 수학적 개념이 적어서 최대한 꼼꼼히 이해할 수 있게 정리해봤는데, 다른 사람들에게도 도움이 되었으면 해서 포스팅한다.[https://arxiv.org/abs/1502.05477]TRPO(Trust Region Policy Optimization)url: https://arxiv.org/abs/1502.05477title: "Trust Region Policy Optimization"description: "We describe an iterative procedure for optimizing policies, with guaranteed mono..

    [Obsidian] 플러그인_추천_및_10개월_사용후기.md

    모 지인이 obsidian이 어렵다고 쓰는 법을 노션(?)에 정리해달라는 말을 들어서 간단하게 적어보는 obsidian 1년 사용기 및 방법이다. 이전에 써서 올린 적이 있던 notion과의 비교글, obsidian 플러그인 및 git 연동법에 이어 세 번째 글이다. 아마 이 글 이후로 다시 obsidian에 대해 다루지는 않을 듯 하다. [Obsidian] Notion vs Obsidian, 내가 Obsidian으로 이사한 이유2~3주 전이었나? 업무시간 중간에 Notion 서버에 잠시간 장애가 발생했던 적이 있다. 나는 내 기억력을 안 믿는 편이라 해야할 업무부터 일하면서 리서치한 내용 등을 노션에 다 기록해두고 쓰고dnai-deny.tistory.com  [Obsidian] 커뮤니티 플러그인 추천 ..

    [Model Compression] 모델 양자화(Model Optimization) with Tensorflow

    딥러닝 모델을 경량화하는 것은 모델 학습 이후 실제 문제에 딥러닝 해법을 적용하는 과정에 있어서 실행 시간, 예측에 필요한 리소스 소모량을 줄이기 위해서 필요한 과정이다.모델 경량화에는 (내가 알고 있기로는) 세 가지 방법이 있는데,모델 양자화(비트 수를 줄이는 방식)모델 pruning(중요하지 않은 부분을 버리는 방식)그냥 모델 설계를 잘하기중에 이미 학습한 모델에 있어서 가장 쉬운 양자화를 우선 하기로 결정하였다. Tensorflow 기반의 모델을 양자화하는 예제를 기록해둔다.Tensorflow로 구성되어 학습하고 가중치를 .h5 확장자로 저장한 모델1. 모델 양자화a. 모델 불러오기import tensorflow as tfmodel = your_model(parameter)model.load_wei..

    [FCM] Firebase Cloud Messaging Vanilla JS + FastAPI에 적용하기

    FCM 설정공식 예제에서는 Node JS 기준으로 설명되어 있음https://firebase.google.com/docs/cloud-messaging/js/client?hl=ko&_gl=1*16582yh*_up*MQ..*_ga*MTk1Nzk3ODc5Mi4xNzEzMjI3MTcy*_ga_CW55HF8NVT*MTcxMzIyNzE3Mi4xLjAuMTcxMzIyNzE3Mi4wLjAuMA..#web-modular-apiVanilla JS 환경에서 하는 법 정리 자바스크립트 Firebase 클라우드 메시징 클라이언트 앱 설정Google I/O 2023에서 Firebase의 주요 소식을 확인하세요. 자세히 알아보기 의견 보내기 자바스크립트 Firebase 클라우드 메시징 클라이언트 앱 설정 컬렉션을 사용해 정리하기 ..

    [라이트 딥러닝] n. Backpropagation 수식 풀이 및 검증

    출처: https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/ A Step by Step Backpropagation Example Background Backpropagation is a common method for training a neural network. There is no shortage of papers online that attempt to explain how backpropagation works, but few that include an example… mattmazur.com feed forward 계산 1. h1 구하기 $$net_{h1} = 0.05 * 0.15 + 0.1 * 0.2 + 0.35..

    [MPC] 4. Optimal Control(2) - Taylor Series 적용, Algebraic Riccati Equation(ARE) 구하기

    LQR에 적용 $$V^{*}(x(t), t) = \underset{u[t, t+\Delta t]}{min} \{ \Delta t \cdot l[x(t + \alpha \Delta t), u(t + \alpha \Delta t), t + \alpha \Delta t] + V^{*}(x(t + \Delta t), t+\Delta t) \}$$ 이 식에서 $V^{*}(x(t + \Delta t), t+\Delta t)$ 부분을 위 Taylor Series로 x와 t에 대해서 정리해보자. $x = (x(t), t), v = \Delta t$ 라고 생각하자. 정리하면 아래와 같다. $$V^{*}(x + v) = V^{*}(x) + f'(x)v + f(x)v' + \frac 12 f''(x)v^{2}+ \frac1..