AI,rport
close
프로필 사진

AI,rport

github: @minyoungci

  • 분류 전체보기 (131)
    • Data science (6)
      • R programming & 통계 (17)
      • Machine Learning Kaggle (2)
      • Machine Learning basic (7)
      • Pytorch Basic (5)
      • Deep Learning Toy Project (6)
      • 딥러닝 논문 리뷰 (29)
      • LLM (1)
    • Backend (7)
      • Django (7)
    • Python (3)
    • 오답노트 (4)
    • Insight (2)
    • Medical (13)
    • 대학원 (1)
    • Bioinformatics (3)
  • 홈
  • 태그
[논문리뷰] - TransformerFAM: Feedback attention is working memory - 어텐션! 너 조금씩 깊게 봐봐

[논문리뷰] - TransformerFAM: Feedback attention is working memory - 어텐션! 너 조금씩 깊게 봐봐

이전 논문 : Transformer - attentioon is all you need 1. Introduction 논문이 다루는 task Input : 무한한 길이의 시퀀스 (Infinitely long sequences) Output : 입력 시퀀스에 대한 처리 결과 (Processed output of the input sequence) 해당 task에서 기존 연구 한계점 Transformer의 quadratic attention complexity로 인해 무한한 길이의 입력을 처리하는 데 한계가 있습니다. quadratic attention complexity란 어텐션 메커니즘의 계산 복잡도를 의미합니다. Transformer에서 사용되는 어텐션 메커니즘은 각 토큰이 다른 모든 토큰과의 관계를 계..

  • format_list_bulleted Data science/딥러닝 논문 리뷰
  • · 2024. 4. 24.
반응형
LIST
  • navigate_before
  • 1
  • navigate_next
반응형
공지사항
전체 카테고리
  • 분류 전체보기 (131)
    • Data science (6)
      • R programming & 통계 (17)
      • Machine Learning Kaggle (2)
      • Machine Learning basic (7)
      • Pytorch Basic (5)
      • Deep Learning Toy Project (6)
      • 딥러닝 논문 리뷰 (29)
      • LLM (1)
    • Backend (7)
      • Django (7)
    • Python (3)
    • 오답노트 (4)
    • Insight (2)
    • Medical (13)
    • 대학원 (1)
    • Bioinformatics (3)
인기 글
전체 방문자
오늘
어제
Copyright © minyoungxi 모든 권리 보유.
SKIN: Copyright © 쭈미로운 생활 All rights reserved. Designed by JJuum.
and Current skin "dev-roo" is modified by Jin.

티스토리툴바