반응형
LIST
이전 논문 : Transformer - attentioon is all you need 1. Introduction 논문이 다루는 task Input : 무한한 길이의 시퀀스 (Infinitely long sequences) Output : 입력 시퀀스에 대한 처리 결과 (Processed output of the input sequence) 해당 task에서 기존 연구 한계점 Transformer의 quadratic attention complexity로 인해 무한한 길이의 입력을 처리하는 데 한계가 있습니다. quadratic attention complexity란 어텐션 메커니즘의 계산 복잡도를 의미합니다. Transformer에서 사용되는 어텐션 메커니즘은 각 토큰이 다른 모든 토큰과의 관계를 계..
Abstract We introduce VASA, a framework for generating lifelike talking faces with appealing visual affective skills (VAS) given a single static image and a speech audio clip. Our premiere model, VASA-1, is capable of not only producing lip movements that are exquisitely synchronized with the audio, but also capturing a large spectrum of facial nuances and natural head motions that contribute to..
Transformer의 탄생 배경자연어 처리 분야에서 순환신경망(RNN)은 오랫동안 메인 모델로 사용되어 왔습니다. 하지만 RNN은 길이가 길어질수록 성능이 저하되는 단점이 있었습니다. 그래서 어텐션(Attention) 메커니즘을 통해 입력과 출력 사이의 의존성을 직접적으로 모델링할 수 있는 트랜스포머가 제안되었습니다. 기존 순차 모델들이 단어 하나하나를 차례로 처리했던 것과 달리, 트랜스포머는 어텐션을 통해 전체 문장을 한번에 참조할 수 있게 되었습니다. 이를 통해 병렬 처리가 가능해져 계산 효율이 크게 향상되었습니다. 또한 문장의 길이에 상관없이 성능이 유지되는 장점도 가지고 있습니다. 이렇게 혁신적인 아이디어를 제시한 ‘Attention is all you need’ 논문은 트랜스포머 모델의 기반이..
1. Research - ChatGPT : OPENAI가 출시한 대화 기반 검색입니다. 입력받은 내용을 바탕으로 인간과 같은 텍스트를 이해하고 생성하는 AI 기반 챗봇으로, 자세한 답변과 요약, 설명을 제공하며 연구와 검색을 돕습니다. 너무 유명한 챗지피티죠 ! - Perplexity : 질의를 깊이 이해하고 다양한 소스에서 정확하고 관련성 높은 정보를 간결하게 제공하는 데 특화된 AI 어시스턴스 입니다. https://www.perplexity.ai/ Perplexity Attach images, text, or PDFs. Sign in to attach files. www.perplexity.ai - Bing Chat : 대화와 문맥적으로 관련성 높은 검색 결과를 제공하도록 설계된 마이크로소프트의 B..