<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
  <channel>
    <title>AI,rport</title>
    <link>https://minyoungxi.tistory.com/</link>
    <description>인공지능과 의학을 공부합니다. 딥러닝의 공부 자취를 남기고 도메인 지식인 의학을 전달할 계획입니다 :) 

I am studying artificial intelligence and Medicine. I plan to record a trail of study in deep learning and my domain knowledge in medicine. :)</description>
    <language>ko</language>
    <pubDate>Fri, 8 May 2026 11:07:02 +0900</pubDate>
    <generator>TISTORY</generator>
    <ttl>100</ttl>
    <managingEditor>minyoungxi</managingEditor>
    <image>
      <title>AI,rport</title>
      <url>https://tistory1.daumcdn.net/tistory/5184535/attach/f5454d999da64fc9aed3e46221350e5f</url>
      <link>https://minyoungxi.tistory.com</link>
    </image>
    <item>
      <title>[Nutrient] 피쉬오일(오메가3)은 정말 뇌에 좋기만 할까: EPA 연구가 던진 질문</title>
      <link>https://minyoungxi.tistory.com/150</link>
      <description>&lt;h1&gt;피쉬오일은 정말 뇌에 좋기만 할까: EPA 연구가 던진 질문&lt;/h1&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;피쉬오일은 건강기능식품 진열대에서 가장 익숙한 이름 중 하나다. 심장 건강, 염증 조절, 눈 건강, 뇌 건강. 작은 캡슐 하나에 붙는 기대가 꽤 크다. 그래서 오메가-3라는 말은 어느새 &amp;ldquo;몸에 좋은 지방&amp;rdquo;이라는 짧은 이미지로 굳어졌다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그런데 최근 &lt;i&gt;Cell Reports&lt;/i&gt;에 실린 한 연구가 이 익숙한 믿음에 제동을 걸었다. 질문은 단순하다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;피쉬오일은 정말 언제나 뇌에 좋을까?&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Medical News Today가 소개한 이 연구의 초점은 일반적인 건강한 사람의 일상 섭취가 아니다. 연구진이 들여다본 상황은 더 좁다. 반복적인 경미한 외상성 뇌손상, 즉 repeated mild traumatic brain injury 이후의 회복 과정이다. 이 맥락에서 피쉬오일 속 오메가-3 지방산 중 하나인 &lt;b&gt;EPA(eicosapentaenoic acid)&lt;/b&gt;가 뇌혈관 회복에 불리하게 작용할 수 있다는 신호가 관찰됐다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 글은 피쉬오일을 겁주기 위한 글이 아니다. 오히려 반대에 가깝다. &amp;ldquo;좋은 성분&amp;rdquo;이라는 말이 얼마나 쉽게 맥락을 지워버리는지, 그리고 영양제를 볼 때 왜 &amp;ldquo;무엇을 먹느냐&amp;rdquo;만큼 &amp;ldquo;누가, 언제, 어떤 상태에서 먹느냐&amp;rdquo;가 중요한지 정리해보려 한다.&lt;/p&gt;
&lt;div style=&quot;border-left: 5px solid #2B8C8C; background: #F1FAF8; padding: 16px 18px; margin: 24px 0; border-radius: 12px;&quot;&gt;&lt;b&gt;이 글의 핵심 질문&lt;/b&gt;&lt;br /&gt;&lt;span style=&quot;color: #334155;&quot;&gt;피쉬오일이 좋은가, 나쁜가를 단정하기보다 &lt;b&gt;EPA가 어떤 몸의 상태에서 다르게 작용할 수 있는지&lt;/b&gt; 살펴본다.&lt;/span&gt;&lt;/div&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1376&quot; data-origin-height=&quot;768&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/NkMoS/dJMcadBOy96/9SC3uiuh7KfbmRaXGzyct0/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/NkMoS/dJMcadBOy96/9SC3uiuh7KfbmRaXGzyct0/img.webp&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/NkMoS/dJMcadBOy96/9SC3uiuh7KfbmRaXGzyct0/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FNkMoS%2FdJMcadBOy96%2F9SC3uiuh7KfbmRaXGzyct0%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1376&quot; height=&quot;768&quot; data-origin-width=&quot;1376&quot; data-origin-height=&quot;768&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;이 연구가 말하지 않는 것부터 보자&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 주제는 제목만 보고 오해하기 쉽다. &amp;ldquo;피쉬오일이 뇌에 해롭다&amp;rdquo;로 읽히면 너무 빠르다. 이번 연구가 말하는 것은 훨씬 좁고, 그래서 더 중요하다. 연구의 메시지는 이렇게 정리할 수 있다.&lt;/p&gt;
&lt;div style=&quot;border: 1px solid #D8E7E5; background: #FFFFFF; padding: 18px 20px; margin: 20px 0; border-radius: 14px;&quot;&gt;
&lt;p style=&quot;margin: 0; color: #17263d;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;정리하면&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;margin: 8px 0 0; color: #334155;&quot; data-ke-size=&quot;size16&quot;&gt;피쉬오일이나 EPA가 모든 사람에게 나쁘다는 뜻은 아니다. 다만 &lt;b&gt;반복적인 뇌손상 이후처럼 뇌가 혈관과 조직을 다시 복구해야 하는 상황&lt;/b&gt;에서는 EPA가 회복 반응을 방해할 가능성이 있다.&lt;/p&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;영양 성분은 몸속에서 한 가지 역할만 하지 않는다. 어떤 작용은 한 상황에서는 도움이 되고, 다른 상황에서는 방해가 될 수 있다. EPA는 염증 조절, 지질 대사, 혈관 생성 조절과 관련해 연구되어 왔다. 그런데 손상 이후 뇌가 새 혈관을 만들고 혈액뇌장벽을 회복해야 하는 순간이라면, 그 조절 작용이 예상과 다른 방향으로 움직일 수 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;좋은 약도 상황을 탄다. 좋은 영양제도 마찬가지다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;연구의 배경은 &amp;ldquo;반복적인 가벼운 뇌손상&amp;rdquo;이었다&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리가 뇌손상이라고 하면 큰 사고를 먼저 떠올린다. 하지만 연구자들이 주목한 것은 더 조용한 손상이다. &lt;u&gt;스포츠 경기 중 반복되는 머리 충격, 군 복무 중 폭발 압력, 낙상, 가벼운 뇌진탕이 누적되는 상황&lt;/u&gt;처럼 말이다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;한 번의 충격은 &amp;ldquo;괜찮아 보이는&amp;rdquo; 수준일 수 있다. 문제는 반복이다. 뇌는 매번 회복하려고 하지만, 회복이 끝나기 전에 다음 충격이 오면 시스템 전체가 미세하게 흔들릴 수 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;CDC도 반복적인 머리 충격을 별도로 설명한다. 여기에는 증상이 뚜렷한 뇌진탕뿐 아니라, 맞은 직후 특별한 증상을 느끼지 못하는 충격도 포함된다. 다만 CDC는 동시에 중요한 주의를 덧붙인다. 한두 번의 뇌진탕이나 가끔 있는 머리 충격이 CTE로 이어진다는 강한 근거는 없으며, CTE는 현재 사후 뇌 조직 검사로만 확진할 수 있다.&lt;/p&gt;
&lt;div style=&quot;background: #FFF7E8; border-left: 5px solid #F2A541; padding: 15px 18px; margin: 22px 0; border-radius: 12px;&quot;&gt;&lt;b&gt;주의해서 읽을 지점&lt;/b&gt;&lt;br /&gt;&lt;span style=&quot;color: #475569;&quot;&gt;반복 충격은 가볍게 볼 일이 아니지만, 모든 머리 충격을 곧바로 CTE 공포로 연결해서도 안 된다.&lt;/span&gt;&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 연구는 바로 그 사이의 회복 과정을 들여다봤다. 뇌가 다친 뒤 무엇을 다시 세우려고 하는지, 그리고 피쉬오일 속 EPA가 그 과정에 어떤 영향을 주는지 본 것이다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;핵심은 뉴런만이 아니라 혈관이었다&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;뇌 건강 이야기는 자주 뉴런 중심으로 흐른다. 기억력, 집중력, 인지 기능 같은 단어가 먼저 떠오르기 때문이다. 하지만 뇌는 뉴런만으로 버티는 장기가 아니다. 혈관이 산소와 영양분을 공급하고, 혈액뇌장벽이 외부 물질의 출입을 조절하며, 대사 교환이 안정적으로 이루어져야 한다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 연구에서 중요한 구조는 &lt;b&gt;신경혈관 단위(neurovascular unit)&lt;/b&gt;였다. 특히 뇌혈관 안쪽을 이루는 &lt;b&gt;뇌 미세혈관 내피세포&lt;/b&gt;가 핵심 단서로 제시됐다. 이 세포들은 혈류, 장벽 기능, 대사 교환, 조직 회복에 관여한다. 뇌 전체에 혈관망이 촘촘히 깔려 있다는 점을 생각하면, 내피세포의 작은 변화도 시간이 지나며 의미 있는 차이를 만들 수 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Medical News Today 기사에서 연구자 Onder Albayram은 뇌의 거대한 혈관 네트워크를 언급하며, 내피 기능의 미묘한 변화도 장기적으로 영향을 줄 수 있다고 설명했다. 이 연구는 &amp;ldquo;오메가-3가 뉴런에 좋으냐 나쁘냐&amp;rdquo;를 단순히 묻는 연구가 아니다. 더 정확히는 &lt;b&gt;손상 이후 뇌혈관 회복 시스템이 제대로 작동하느냐&lt;/b&gt;를 묻는다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/FaxpE/dJMcafNhQcm/CZNKKO4dN1BID8xKctDYY1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/FaxpE/dJMcafNhQcm/CZNKKO4dN1BID8xKctDYY1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/FaxpE/dJMcafNhQcm/CZNKKO4dN1BID8xKctDYY1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FFaxpE%2FdJMcafNhQcm%2FCZNKKO4dN1BID8xKctDYY1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;714&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;EPA와 DHA는 같은 오메가-3가 아니다&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/PlSUn/dJMcaaSJg30/DTUMIxiwuGzm8tJDhZgaa1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/PlSUn/dJMcaaSJg30/DTUMIxiwuGzm8tJDhZgaa1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/PlSUn/dJMcaaSJg30/DTUMIxiwuGzm8tJDhZgaa1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FPlSUn%2FdJMcaaSJg30%2FDTUMIxiwuGzm8tJDhZgaa1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;973&quot; height=&quot;543&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;피쉬오일을 이야기할 때 가장 많이 뭉개지는 부분이 여기다. 우리는 흔히 EPA와 DHA를 함께 &amp;ldquo;오메가-3&amp;rdquo;라고 부른다. 제품 라벨에도 두 성분이 나란히 적혀 있다. 하지만 둘은 몸속에서 같은 방식으로 움직이지 않는다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;NIH Office of Dietary Supplements에 따르면 오메가-3 지방산에는 ALA, EPA, DHA 등이 포함된다. ALA는 식물성 식품에 많고, EPA와 DHA는 생선&amp;middot;해산물&amp;middot;피쉬오일&amp;middot;일부 조류 오일 등에 들어 있다. ALA가 EPA와 DHA로 전환될 수는 있지만 전환율은 제한적이어서, EPA와 DHA를 늘리려면 식품이나 보충제를 통해 직접 섭취하는 방식이 실제적이라고 설명한다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DHA는 뇌와 망막에 많이 존재하는 구조적 지방산으로 자주 언급된다. 반면 EPA는 염증 매개, 지질 대사, 혈관 생성 조절 등 다른 경로와 연결된다. 둘 다 오메가-3지만, 같은 역할을 한다고 보면 안 된다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 연구에서도 차이가 드러났다. 인간 뇌 미세혈관 내피세포를 이용한 실험에서 &lt;b&gt;EPA는 혈관 네트워크 형성과 상처 회복 능력을 떨어뜨리는 방향&lt;/b&gt;으로 작용했지만, &lt;b&gt;DHA에서는 같은 효과가 뚜렷하지 않았다&lt;/b&gt;고 보도됐다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 대목은 실용적이다. &amp;ldquo;오메가-3가 좋다더라&amp;rdquo;에서 멈추지 말고, 제품 속 EPA와 DHA 비율, 복용 목적, 자신의 현재 상태를 함께 봐야 한다는 뜻이기 때문이다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;뇌가 회복하려 할 때 EPA가 브레이크처럼 작용한다면&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;손상 이후 뇌는 여러 일을 동시에 한다. 염증을 조절하고, 손상된 조직을 정리하고, 혈류를 안정화하고, 필요한 곳에 새 혈관을 만들며, 장벽 기능을 회복한다. 깔끔한 스위치 하나로 끝나는 과정이 아니다. 아주 정교한 공사 현장에 가깝다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 연구에서 EPA는 이 공사 현장의 일부 장비를 늦추는 것처럼 보였다. 특히 새 혈관 형성, 즉 &lt;b&gt;angiogenesis&lt;/b&gt;와 내피세포 회복 반응이 약해지는 신호가 관찰됐다. 동물 모델에서는 장기 피쉬오일 섭취가 반복적인 경미한 뇌손상 이후 신경혈관 기능 변화, 피질 부위의 tau 축적, 신경학적 수행 및 공간 학습 저하와 연결됐다고 보도됐다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기서 tau라는 이름이 등장하면 긴장감이 올라간다. Tau 단백질은 알츠하이머병과 CTE 같은 신경퇴행성 질환에서 자주 언급된다. 그러나 이 지점에서 문장을 조심해야 한다. 이 연구만으로 &amp;ldquo;피쉬오일이 CTE를 만든다&amp;rdquo;고 말할 수는 없다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정확한 표현은 이쪽에 가깝다.&lt;/p&gt;
&lt;div style=&quot;border-left: 5px solid #64748B; background: #F8FAFC; padding: 16px 18px; margin: 22px 0; border-radius: 12px;&quot;&gt;&lt;b&gt;과장하지 않는 표현&lt;/b&gt;&lt;br /&gt;&lt;span style=&quot;color: #475569;&quot;&gt;반복적인 뇌손상 모델에서 EPA와 관련된 혈관 회복 저하 및 tau 관련 신호가 관찰됐고, 이는 CTE 관련 병리와의 연결 가능성을 더 연구할 필요가 있다.&lt;/span&gt;&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;건강 글쓰기에서 신뢰는 종종 이런 조심스러운 문장에 있다. 독자를 놀라게 하는 문장보다, 어디까지가 확인됐고 어디부터가 질문인지 나눠주는 문장이 오래간다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;기존 연구들과는 어떻게 다를까&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기서 흥미로운 긴장이 생긴다. 오메가-3와 외상성 뇌손상에 관한 기존 문헌은 대체로 &amp;ldquo;가능성 있는 보호 효과&amp;rdquo;를 이야기해왔다. 예를 들어 2013년 PubMed에 등재된 리뷰는 DHA와 EPA가 TBI에서 신경 회복에 유망한 실험실 근거를 가지고 있다고 설명했다. 2024년 &lt;i&gt;Nutrients&lt;/i&gt; 리뷰도 오메가-3 지방산이 동물 모델에서 염증, 산화 스트레스, 혈액뇌장벽 손상, 부종, 축삭 손상 등을 줄이는 방향으로 연구되어 왔다고 정리한다.&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇다면 이번 연구는 기존 연구를 뒤집은 걸까? 그렇게 단순하게 볼 필요는 없다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;오히려 이번 연구는 질문을 더 세밀하게 만든다.&lt;/p&gt;
&lt;div style=&quot;background: #F1FAF8; border: 1px solid #CFE7E4; padding: 18px 20px; margin: 22px 0; border-radius: 14px;&quot;&gt;
&lt;p style=&quot;margin: 0 0 10px; color: #17263d;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;이번 연구가 새로 여는 질문들&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;margin: 0; padding-left: 20px; color: #334155;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;오메가-3 전체를 한 덩어리로 봐도 되는가?&lt;/li&gt;
&lt;li&gt;DHA 중심 결과와 EPA 중심 결과를 구분해야 하는가?&lt;/li&gt;
&lt;li&gt;급성 손상, 반복 손상, 회복기, 장기 섭취라는 조건이 결과를 바꾸는가?&lt;/li&gt;
&lt;li&gt;뇌세포 보호와 뇌혈관 회복은 같은 방향으로 움직이는가?&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존 연구가 &amp;ldquo;오메가-3가 TBI에서 도움이 될 수 있다&amp;rdquo;는 가능성을 보여줬다면, 이번 연구는 &amp;ldquo;어떤 오메가-3가, 어떤 손상 맥락에서, 어떤 세포 시스템에 작용하는가&amp;rdquo;를 더 따져야 한다고 말한다. 건강정보가 성숙해지는 방식은 대개 이렇다. 처음에는 큰 효과를 보고, 그다음에는 예외와 조건을 찾는다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;누가 이 연구를 유심히 봐야 할까&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반 독자가 가장 궁금해할 부분은 결국 이것이다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;ldquo;그럼 나도 피쉬오일을 끊어야 하나?&amp;rdquo;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현재 근거만으로는 그렇게 말할 수 없다. 하지만 아래에 해당하는 사람이라면 한 번쯤 점검할 이유가 있다.&lt;/p&gt;
&lt;div style=&quot;background: #FFFFFF; border: 1px solid #E2E8F0; padding: 18px 22px; margin: 20px 0; border-radius: 14px;&quot;&gt;
&lt;p style=&quot;margin: 0 0 10px; color: #17263d;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;한 번쯤 점검하면 좋은 경우&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;margin: 0; padding-left: 20px; color: #334155;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;반복적인 뇌진탕이나 머리 충격 경험이 있는 사람&lt;/li&gt;
&lt;li&gt;복싱, 축구, 미식축구, 격투기 등 접촉 스포츠 경험이 많은 사람&lt;/li&gt;
&lt;li&gt;군 복무나 직업 환경에서 폭발, 충격, 낙상 위험에 노출된 사람&lt;/li&gt;
&lt;li&gt;반복 낙상 위험이 높은 사람&lt;/li&gt;
&lt;li&gt;경미한 외상성 뇌손상 이후 회복 중인 사람&lt;/li&gt;
&lt;li&gt;EPA 함량이 높은 피쉬오일 보충제를 장기간 복용 중인 사람&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이런 경우에는 보충제를 혼자 판단하기보다 의료진과 상의하는 편이 안전하다. 특히 항응고제나 항혈소판제 등 다른 약을 복용 중이라면 피쉬오일은 뇌손상 여부와 별개로도 상담이 필요할 수 있다. NIH ODS도 오메가-3 보충제의 안전성과 약물 상호작용을 별도로 다룬다. 보충제는 &amp;ldquo;음식에 가까우니 괜찮겠지&amp;rdquo;로 넘기기엔 몸속에서 하는 일이 많다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;핵심은 공포가 아니라 개인화다. 영양제는 내 몸의 이력과 함께 읽어야 한다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;피쉬오일을 먹고 있다면 확인할 것&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;피쉬오일을 이미 먹고 있다면, 당장 서랍 속 캡슐을 버릴 필요는 없다. 대신 라벨을 한 번 더 볼 필요는 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;확인할 것은 복잡하지 않다.&lt;/p&gt;
&lt;div style=&quot;display: block; background: #F8FAFC; border: 1px solid #E2E8F0; padding: 20px 22px; margin: 22px 0; border-radius: 16px;&quot;&gt;
&lt;p style=&quot;margin: 0 0 14px; color: #17263d;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;피쉬오일 복용 전 5문항&lt;/b&gt;&lt;/p&gt;
&lt;ol style=&quot;margin: 0; padding-left: 22px; color: #334155;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;왜 먹고 있는가&lt;/b&gt;&lt;br /&gt;심혈관 건강, 중성지방, 눈 건조, 염증, 막연한 뇌 건강 중 무엇을 기대하고 있는지 먼저 분명히 해야 한다.&lt;/li&gt;
&lt;li style=&quot;margin-top: 10px;&quot;&gt;&lt;b&gt;EPA와 DHA 비율이 어떻게 되는가&lt;/b&gt;&lt;br /&gt;&amp;ldquo;오메가-3 1,000 mg&amp;rdquo;만 보지 말고 EPA와 DHA가 각각 얼마나 들어 있는지 봐야 한다.&lt;/li&gt;
&lt;li style=&quot;margin-top: 10px;&quot;&gt;&lt;b&gt;최근 머리 손상이나 반복 충격 이력이 있는가&lt;/b&gt;&lt;br /&gt;뇌진탕, 접촉 스포츠, 낙상, 폭발&amp;middot;충격 노출이 있었다면 장기 복용을 의료진과 상의하는 편이 좋다.&lt;/li&gt;
&lt;li style=&quot;margin-top: 10px;&quot;&gt;&lt;b&gt;함께 먹는 약이 있는가&lt;/b&gt;&lt;br /&gt;특히 항응고제, 항혈소판제, 수술 전후 상황처럼 출혈 위험과 관련된 맥락은 별도 상담이 필요하다.&lt;/li&gt;
&lt;li style=&quot;margin-top: 10px;&quot;&gt;&lt;b&gt;식사로 채울 수 있는 부분은 없는가&lt;/b&gt;&lt;br /&gt;NIH ODS는 영양 필요를 가능하면 식품을 통해 충족하는 것이 좋다고 설명한다. 생선, 견과류, 씨앗류, 전체 식사 패턴을 함께 봐야 한다.&lt;/li&gt;
&lt;/ol&gt;
&lt;/div&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;이 연구가 남기는 가장 좋은 질문&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리는 건강 정보를 너무 자주 성분 단위로 소비한다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;ldquo;마그네슘은 수면에 좋다.&amp;rdquo;&lt;br /&gt;&amp;ldquo;비타민 D는 면역에 좋다.&amp;rdquo;&lt;br /&gt;&amp;ldquo;오메가-3는 뇌에 좋다.&amp;rdquo;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이런 문장은 기억하기 쉽다. 하지만 몸은 그렇게 단순하게 움직이지 않는다. 성분은 용량, 기간, 조성, 질병 상태, 나이, 약물, 식습관, 손상 여부에 따라 다른 얼굴을 보일 수 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;피쉬오일도 마찬가지다. EPA와 DHA의 비율이 다르고, 섭취 기간이 다르고, 먹는 사람의 상태가 다르다. 특히 뇌손상 이후처럼 회복과 재구성이 필요한 시기에는 &amp;ldquo;평소에 좋다고 알려진 작용&amp;rdquo;이 반드시 좋은 방향으로만 흐르지 않을 수 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 연구가 남기는 가장 좋은 질문은 &amp;ldquo;피쉬오일이 좋은가, 나쁜가&amp;rdquo;가 아니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;font-size: 1.25em; line-height: 1.7; color: #17263d; background: #F1FAF8; border-left: 5px solid #2B8C8C; padding: 14px 18px; border-radius: 12px;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;&amp;ldquo;내가 먹는 이 성분은 지금 내 몸의 상황과 맞는가?&amp;rdquo;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 질문 하나만으로도 영양제를 보는 방식은 꽤 달라진다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;균형 잡힌 결론&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;피쉬오일은 여전히 많은 사람이 복용하는 보충제이고, 오메가-3 지방산은 다양한 영역에서 연구되어 왔다. 하지만 많이 먹는다는 사실이 모든 상황에서 안전하고 유익하다는 뜻은 아니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 &lt;i&gt;Cell Reports&lt;/i&gt; 연구는 EPA가 반복적인 경미한 뇌손상 이후 뇌혈관 회복 과정에서 불리하게 작용할 수 있는지 묻는다. 동물 모델과 인간 세포 실험은 그 가능성을 보여줬다. 특히 EPA가 내피세포 회복, 혈관 형성, 신경혈관 안정성에 영향을 줄 수 있다는 점은 앞으로 더 확인할 가치가 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다만 이 연구를 일반화하는 데는 한계가 있다. 동물 모델과 세포 모델의 결과를 곧바로 모든 사람에게 적용할 수는 없다. CTE 환자 조직에서 EPA 관련 신호가 관찰됐다는 보도도 인과관계를 증명하는 것은 아니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러니 지금 필요한 태도는 &amp;ldquo;피쉬오일은 위험하다&amp;rdquo;가 아니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;조금 더 정확히 말하면 이렇다.&lt;/p&gt;
&lt;div style=&quot;background: #17263D; color: #ffffff; padding: 20px 22px; margin: 24px 0; border-radius: 16px;&quot;&gt;
&lt;p style=&quot;margin: 0 0 8px;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;피쉬오일도 맥락을 탄다.&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;margin: 0 0 8px;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;오메가-3도 EPA와 DHA를 나눠서 봐야 한다.&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;margin: 0;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;뇌가 회복 중이라면, 좋은 성분도 좋은 타이밍인지 다시 물어야 한다.&lt;/b&gt;&lt;/p&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;캡슐은 작다. 하지만 그 안에 들어 있는 질문은 작지 않다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;레퍼런스&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Medical News Today. &amp;ldquo;Fish oil supplements: Could they sometimes harm the brain?&amp;rdquo; / &amp;ldquo;Omega-3s may affect brain repair: Should you avoid them?&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://www.medicalnewstoday.com/articles/fish-oil-omega-3-brain-health-brain-repair&quot;&gt;https://www.medicalnewstoday.com/articles/fish-oil-omega-3-brain-health-brain-repair&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Cell Reports / ScienceDirect. &amp;ldquo;Eicosapentaenoic acid reprograms cerebrovascular metabolism and impairs repair after brain injury, with relevance to chronic traumatic encephalopathy.&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://www.sciencedirect.com/science/article/pii/S2211124726002135&quot;&gt;https://www.sciencedirect.com/science/article/pii/S2211124726002135&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Cold Spring Harbor Laboratory. &amp;ldquo;Fish oil may increase CTE risk after brain injury.&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://www.cshl.edu/fish-oil-may-increase-cte-risk-after-brain-injury/&quot;&gt;https://www.cshl.edu/fish-oil-may-increase-cte-risk-after-brain-injury/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;ScienceDaily / Medical University of South Carolina. &amp;ldquo;Fish oil may be hurting your brain, new study finds.&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://www.sciencedaily.com/releases/2026/04/260426012303.htm&quot;&gt;https://www.sciencedaily.com/releases/2026/04/260426012303.htm&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;NIH Office of Dietary Supplements. &amp;ldquo;Omega-3 Fatty Acids: Fact Sheet for Health Professionals.&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://ods.od.nih.gov/factsheets/Omega3FattyAcids-HealthProfessional/&quot;&gt;https://ods.od.nih.gov/factsheets/Omega3FattyAcids-HealthProfessional/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;CDC. &amp;ldquo;About Repeated Head Impacts.&amp;rdquo;&lt;br /&gt;&lt;a href=&quot;https://www.cdc.gov/traumatic-brain-injury/about/repeated-head-impacts.html&quot;&gt;https://www.cdc.gov/traumatic-brain-injury/about/repeated-head-impacts.html&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Valero-Hernandez E, Tremoleda JL, Michael-Titus AT. &amp;ldquo;Omega-3 Fatty Acids and Traumatic Injury in the Adult and Immature Brain.&amp;rdquo; &lt;i&gt;Nutrients&lt;/i&gt;. 2024. DOI: 10.3390/nu16234175.&lt;br /&gt;&lt;a href=&quot;https://pmc.ncbi.nlm.nih.gov/articles/PMC11643940/&quot;&gt;https://pmc.ncbi.nlm.nih.gov/articles/PMC11643940/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Mills JD, Bailes JE, Sedney CL, Hutchins H, Sears B. &amp;ldquo;Omega-3 fatty acids as a putative treatment for traumatic brain injury.&amp;rdquo; &lt;i&gt;J Neurotrauma&lt;/i&gt;. 2011/2013 PubMed record.&lt;br /&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/23363551/&quot;&gt;https://pubmed.ncbi.nlm.nih.gov/23363551/&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Editor Notes&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Tone check: v0보다 블로그 리듬을 더 자연스럽게 다듬었다. 공포성 제목이나 단정적 문장을 피하고, &amp;ldquo;맥락을 탄다&amp;rdquo;는 중심 문장을 반복축으로 사용했다.&lt;/li&gt;
&lt;li&gt;Factual/source check: Medical News Today, CSHL, ScienceDaily/MUSC, ScienceDirect 원논문 랜딩, NIH ODS, CDC, PubMed/PMC 리뷰를 추가 확인했다. Cell/Elsevier 원문 전문 및 supplement는 접근 제한으로 세부 수치 확인이 필요하다.&lt;/li&gt;
&lt;li&gt;Structure check: 도입 &amp;rarr; 오해 방지 &amp;rarr; 연구 맥락 &amp;rarr; 기전 &amp;rarr; EPA/DHA 구분 &amp;rarr; 기존 연구와의 긴장 &amp;rarr; 독자 적용 &amp;rarr; 결론 &amp;rarr; 참고자료 순서로 재구성했다. 시각 자료 언급은 빼고, 블로그용 강조 박스와 컬러 포인트로 가독성을 보강했다.&lt;/li&gt;
&lt;li&gt;Publication readiness: v4는 시각 자료 관련 내용을 제거하고 텍스트 강조/색상 HTML 블록을 적용한 리뷰용 초안. 과학적 완성도를 더 높이려면 원논문 전문에서 식이 조성, EPA 농도, 동물 수, rmTBI 프로토콜, tau 측정법을 보강해야 한다.&lt;/li&gt;
&lt;/ul&gt;</description>
      <category>Medical</category>
      <category>물고기</category>
      <category>물고기오일</category>
      <category>영양소</category>
      <category>영양제</category>
      <category>영양제섭취</category>
      <category>영양제추천</category>
      <category>오메가</category>
      <category>오메가3</category>
      <category>오일</category>
      <category>피쉬오일</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/150</guid>
      <comments>https://minyoungxi.tistory.com/150#entry150comment</comments>
      <pubDate>Mon, 4 May 2026 19:55:00 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - Vision은 메타지! Meta AI가 만든 DiNO 시리즈에 대해서 알아보자.</title>
      <link>https://minyoungxi.tistory.com/149</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;500&quot; data-origin-height=&quot;667&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b5YOc9/dJMcagrHOKw/k6i9AjIw64yi0Ccn5tKTBK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b5YOc9/dJMcagrHOKw/k6i9AjIw64yi0Ccn5tKTBK/img.png&quot; data-alt=&quot;Meta AI&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b5YOc9/dJMcagrHOKw/k6i9AjIw64yi0Ccn5tKTBK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb5YOc9%2FdJMcagrHOKw%2Fk6i9AjIw64yi0Ccn5tKTBK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;500&quot; height=&quot;667&quot; data-origin-width=&quot;500&quot; data-origin-height=&quot;667&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Meta AI&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Vision 분야의 최신 연구트렌드는 Meta Ai의 리서치를 따라가면 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Meta는 최근 Llama의 네 번째 시리즈를 출시했지만, 평가가 그렇게 좋지 않았죠? 상대적으로 LLM 기술에 뒤쳐져 있는 Meta이지만, Vision 분야라면 이야기는 달라집니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;메타의 연구들을 따라가보면 Vision 분야에서 새 돌파구를 찾고 있는 듯 보이고, 실마리를 찾은 것 같아 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사실 와닿지 않을 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;918&quot; data-origin-height=&quot;1050&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cLCKC5/dJMcad2L0Yj/NslvgKf5KKLeVQZiKDk8P1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cLCKC5/dJMcad2L0Yj/NslvgKf5KKLeVQZiKDk8P1/img.png&quot; data-alt=&quot;망한 라마4&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cLCKC5/dJMcad2L0Yj/NslvgKf5KKLeVQZiKDk8P1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcLCKC5%2FdJMcad2L0Yj%2FNslvgKf5KKLeVQZiKDk8P1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;382&quot; height=&quot;437&quot; data-origin-width=&quot;918&quot; data-origin-height=&quot;1050&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;망한 라마4&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;ChatGPT 지브리나 구글의 nano banana에 비해서 Meta가 보여줬다는 느낌은 안 듭니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SAM 정도가 생각나긴 하지만요 앞서 언급한 프로덕션에 비해서 임팩트가 떨어지는 것은 사실입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 메타의 비전 관련 연구들을 보면 분명한 목표가 느껴집니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;714&quot; data-origin-height=&quot;181&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c1nuIt/dJMcaib1vyD/EuEknaMUDY9UiK37zJoFYk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c1nuIt/dJMcaib1vyD/EuEknaMUDY9UiK37zJoFYk/img.png&quot; data-alt=&quot;MAE 연구 - https://arxiv.org/abs/2111.06377&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c1nuIt/dJMcaib1vyD/EuEknaMUDY9UiK37zJoFYk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc1nuIt%2FdJMcaib1vyD%2FEuEknaMUDY9UiK37zJoFYk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;714&quot; height=&quot;181&quot; data-origin-width=&quot;714&quot; data-origin-height=&quot;181&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;MAE 연구 - https://arxiv.org/abs/2111.06377&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;665&quot; data-origin-height=&quot;186&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/xqsyl/dJMcahxpfDz/9mdYe41Sc8yZeeD02W72d1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/xqsyl/dJMcahxpfDz/9mdYe41Sc8yZeeD02W72d1/img.png&quot; data-alt=&quot;https://arxiv.org/abs/2104.14294&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/xqsyl/dJMcahxpfDz/9mdYe41Sc8yZeeD02W72d1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fxqsyl%2FdJMcahxpfDz%2F9mdYe41Sc8yZeeD02W72d1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;665&quot; height=&quot;186&quot; data-origin-width=&quot;665&quot; data-origin-height=&quot;186&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;https://arxiv.org/abs/2104.14294&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;메타의 연구들을 보면서 메타의 AI 비전 그 중에서도 'DiNO' 시리즈를 살펴보겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;메타의 목표는 GPT의 학습 전략을 컴퓨터 비전에도 적용하고 싶어하는 것 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 ChatGPT와 같은 LLM 모델을 만들기 위해서는 두 가지 학습 과정이 필요합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;바로 Pretrain과 fine tuning 입니다. 딥러닝을 공부하시는 분들은 분명히 들어보셨을거예요.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 두 단계는 AI 모델에게 각각 다른 성질의 정보를 학습시킵니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Pretrain&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫 번째로 Pretrain 단계를 봅시다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;인터넷의 굉장히 많은 글들을 보면서요 어떤 부분까지의 글을 입력을 받은 후에 바로 직후의 단어를 잘 예측하는 방식을 통해서 학습시킵니다.(Autoregressive한 방식)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 pretrain 과정에서는 글 안의 내용의 논리적인 의미나 도덕성, 가치 판단과는 상관없이 단순히 언어가 어떤 패턴으로 구성되는지 이 세상의 글들이 어떤 규칙으로 나열되는지를 단어 나열의 패턴으로써 학습하게 됩니다. 그리고 이 과정은 일종의 Self-supervised learning 입니다. SSL의 의미는 우선 Supervised Learning을 알면 이해할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전통적인 머신러닝에서는요 데이터와 데이터에 해당하는 정답 레이블 즉, 데이터-라벨 쌍을 기본으로 생각했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터의 입력을 통해 라벨을 예측하는 모델 이 모델을 학습하는 방식이 지도 학습(Supervised Learing)입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어 숫자 이미지가 들어갔을 때 그게 어떤 숫자인지 정확히 맞추도록 학습, 질문 글이 들어왔을 때 적절한 대답 글을 맞추도록 학습. 이 학습에는 아까 말했듯이 데이터-라벨 쌍이 필요합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;681&quot; data-origin-height=&quot;453&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cK4cI5/dJMcaaLOoWR/k06Ho2TJSUPPaXBp0ilHoK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cK4cI5/dJMcaaLOoWR/k06Ho2TJSUPPaXBp0ilHoK/img.png&quot; data-alt=&quot;Supervised Learning, 출처 - 임커밋&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cK4cI5/dJMcaaLOoWR/k06Ho2TJSUPPaXBp0ilHoK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcK4cI5%2FdJMcaaLOoWR%2Fk06Ho2TJSUPPaXBp0ilHoK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;681&quot; height=&quot;453&quot; data-origin-width=&quot;681&quot; data-origin-height=&quot;453&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Supervised Learning, 출처 - 임커밋&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Self supervised Learning은 라벨은 없이 데이터만 가지고 해당 데이터가 어떻게 구성되는지 패턴을 학습하는 방식이 self-supervised learning 입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;438&quot; data-origin-height=&quot;413&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bE8Ax8/dJMcaipxvw9/oQLlFx15fIFmufSFKH9AqK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bE8Ax8/dJMcaipxvw9/oQLlFx15fIFmufSFKH9AqK/img.png&quot; data-alt=&quot;self-supervised learning, 출처-임커밋&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bE8Ax8/dJMcaipxvw9/oQLlFx15fIFmufSFKH9AqK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbE8Ax8%2FdJMcaipxvw9%2FoQLlFx15fIFmufSFKH9AqK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;438&quot; height=&quot;413&quot; data-origin-width=&quot;438&quot; data-origin-height=&quot;413&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;self-supervised learning, 출처-임커밋&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;self-supervised learning은 입출력에다가 각각 어찌저찌 조작을 한 다음에 이 조작된 입력을 가지고 조작된 출력을 잘 학습하도록 합니다. 이렇게 함으로써 이 데이터를 이루는 규칙이 어떤 식으로 들어가는지 이 데이터가 가지고 있는 의미를(Semantic) 모델이 학습하게 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러면 여기서 다시 아까의 LLM pretrain으로 돌아오면 chatGPT같은 언어모델의 pretrain도 일종의 self-supervised learning이라고 했죠 ? 이 pretrain에 필요한 것은 어떤 질문 대답 쌍, 이 질문에는 이 대답이어야 한다. 이런 식의 라벨 쌍이 아닙니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;pretrain에는 단순한 글, 이런 블로그와 같은 글들이 앞부분까지 떼어낸 조작 입력에 대해서 직후 단어만 추출한 조작을 가한 데이터를 예측하도록 self-supervised learning하는 방식을 pretrain에 사용하고 이 방식을 토대로 언어가 어떻게 구성되는지 학습합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;FineTuning&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아까 언급한 것처럼 이 pretrain을 통해서요 글의 논리나 도덕적 원리가 아닌 글 자체의 나열, 즉 언어 그 자체로 어떤 원리로 구성되는지를 모델이 학습합니다. 이 pretrain을 거쳐서 언어가 어떤 원리로 이루어져 있는지 깨달은 모델은 finetuning 단계를 거쳐서 어떤 말을 해야할지 배우게 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 finetuning 단계에서 모델은 데이터와 이 데이터에 대응하는 어떤 값을 통해서요 아까 말한 논리적 의미, 도덕적 원리, 진위 여부와 같은 정보를 배우게 됩니다. 참고로 방금 라벨이 아니라 '어떤 값'이라고 표현한 이유는 이 finetuning에는 지도 학습뿐만 아니라 온갖 여러가지 방법들이 있기 때문입니다. 데이터와 라벨로 이야기하는 supervised learning으로 언어 모델의 finetuning을 정의할 수는 없기 때문에 조금은 모호한 표현인 '대응하는 어떤 값'이라는 표현을 사용합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 finetuning(RLHF, DPO)와 같은 방법들에게는 공통점이 있습니다. 바로 pretrain보다 데이터셋이 작은 규모인데요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왜냐하면 데이터셋 샘플들이 pretrain 때보다 더 희소하기 때문입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;pretrian에서는 그냥 단순한 글을 가져왔지만 finetuning에서는 Prompt, Responses, Preference와 같은 구성을 만족하는 데이터셋을 갖춰야 하기 때문입니다. 이런 구성을 만족하는 데이터는 당연히 단순한 글보다 희소할 수 밖에 없기 때문이겠죠 ?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이런 ChatGPT와 같은 LLM을 학습할 때는요 두 과정이 필수적입니다.(Pretrain, Finetuning)&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Pretrain 없이는요 언어를 구사하는 능력을 학습할 수 없고, finetuning이 없으면 모델이 단순한 단어의 배치만 학습하기 때문에 쓸모가 없을테죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다시 메타의 비전으로 돌아와보겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Vision에서 사용하는 이미지 데이터는 LLM에서 사용하는 데이터처럼 pretrain-finetuning을 그대로 적용하기에는 좀 어렵습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 이유는 바로 pretrian 때문인데요, finetuing같은 경우는 컴퓨터 비전 분야의 여러 task들(Classification, Segmentation...)이 있고 이 task를 위해 준비된 데이터를 사용하면 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제 생각에 pretrain을 적용하기 어려운 이유는 두 가지가 있는데요&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫 번째는 이미지가 나열 개념이 아니라는 점, 두 번째는 이미지가 언어에 비해서 redundancy가 크다는 점입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 나열 개념이 아니라는 점은 1차원이 아니라는 것인데요. 이건 어느 정도 직관적입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LLM에서 사용하는 언어 모델은 나열의 다음 subword 예측 task로 학습합니다. 이걸 이미지에 적용하려고 보니까 이미지는 2D이기 때문에 다음이라는 개념이 말이 안되는 것 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;두 번째로 이미지가 언어에 비해 정보 Redundancy가 크다는 점인데요 만약에 이미지 내부 구성에서도 용케 다음이라는 개념을 잘 정의했다고 칠게요. 하지만 언어에서 한 단어 한 단어가 이루는 유기적인 의미 연결보다 이미지에서 다음으로 이루어지는 연결은 중복같은 군더더기가 훨씬 많겠죠? (배경)&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이런 문제들이 있지만, 앞서 말했듯이 pretrain이 없으면 본다는 개념(시각적 정보)이 없기 때문에 다양한 비전 Task들을 한 모델이 일반적으로 잘하지는 못할 것 같습니다. 이건 현재 빅테크들의 이미지 모델이 동일하게 겪고있는 문제입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;text 입력을 바탕으로 editing을 잘하기도 하고, text 입력을 바탕으로 그 이미지를 잘 만들기도 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 비전 task를 종합적으로 잘하는, 즉 본다는 것에 대한 일반적인 이해가 있는 그런 비전 모델은 아직 없습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 비전 모델들의 난항 속에서 Meta는 DiNO라는 실마리를 찾았습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DiNO는 SSL의 일종이라서 라벨이 붙어있지 않은 데이터 이미지를 학습시킬 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이로 인해 pretrain에서 대규모 데이터를 통해 얻는 이점인 '본다'는 것에 대한 일반적인 이해를 모델에게 주입시킬 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1149&quot; data-origin-height=&quot;392&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/4Dhbp/dJMcaaSAAv7/2KmkBnGbs6qiRBptGL4Tv0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/4Dhbp/dJMcaaSAAv7/2KmkBnGbs6qiRBptGL4Tv0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/4Dhbp/dJMcaaSAAv7/2KmkBnGbs6qiRBptGL4Tv0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F4Dhbp%2FdJMcaaSAAv7%2F2KmkBnGbs6qiRBptGL4Tv0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1149&quot; height=&quot;392&quot; data-origin-width=&quot;1149&quot; data-origin-height=&quot;392&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실제로 라벨이 없는 대규모 데이터로 pretrain한 결과 사람이 사물을 인식하는 것과 거의 슷하게 물체를 구별하는 듯한 패턴을 보여줍니다. 학습된 DiNO가 만든 feature map을 보면 어떤 라벨 지침없이 단순히 2D 이미지만 가지고 학습했을 때 사진 속의 물체 패턴을 정확하게 인식하는 것을 볼 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 구별할 수 있는 feature map을 뽑을 수 있는 pretrain weight를 사용하면 finetuning은 다른 task로의 finetuning으로 확장했을 때 더 좋은 성능을 낼 수 있을 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 여기서 더 흥미로운건 DiNO도 GPT와 마찬가지로 Scale up이 잘 된다는 것입니다. 2021년 DiNO v1부터 2025년의 v3까지 모델 크기를 키워오면서 성능도 준수하게 향상되는 모습을 보여주고 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;672&quot; data-origin-height=&quot;207&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cPAejD/dJMcaarvUc2/AF7jojy4TSWgfYrYkj3kI0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cPAejD/dJMcaarvUc2/AF7jojy4TSWgfYrYkj3kI0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cPAejD/dJMcaarvUc2/AF7jojy4TSWgfYrYkj3kI0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcPAejD%2FdJMcaarvUc2%2FAF7jojy4TSWgfYrYkj3kI0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;672&quot; height=&quot;207&quot; data-origin-width=&quot;672&quot; data-origin-height=&quot;207&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;feature map이 점점 매끈하게 뽑히는 모습을 볼 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사실 모델 구조나 학습 방법이 작은 규모에서만 잘 동작하고 Scale을 높였을 때 그만큼 성능이 나오지 않는 경우가 다른 연구에서는 빈번한데 DiNO의 경우 v3까지 성능이 잘 향상되어온 것 같네요.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 DiNO는 GPT의 학습 전략을 답습할 수 없었던 문제, 이미지 데이터로 pretrain이 어렵다는 문제를 잘 해결할 수 있어 보입니다. 메타는 실제로 컴퓨터 비전 관련 연구나 제품에 확실히 많은 기대를 걸고 있는 것으로 보입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;비전 분야에서 GPT가 보여줬던 어떤 임팩트를 내 준다면, 비전 분야에서의 도약과 더 나아가서 언어와 이미지 멀티모델 AI에 대해서 더 큰 기대를 해볼 수 있을 것 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;2021년 DiNO v1의 등장 - Distillation + EMA&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;581&quot; data-origin-height=&quot;396&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bhOFYo/dJMcahRF1mk/f77s1mBxLS9udBd79OxHb1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bhOFYo/dJMcahRF1mk/f77s1mBxLS9udBd79OxHb1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bhOFYo/dJMcahRF1mk/f77s1mBxLS9udBd79OxHb1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbhOFYo%2FdJMcahRF1mk%2Ff77s1mBxLS9udBd79OxHb1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;581&quot; height=&quot;396&quot; data-origin-width=&quot;581&quot; data-origin-height=&quot;396&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;학습을 하기는 하는데 라벨로 학습하는 것이 아니라 고수(Teacher)에게 전달받습니다. 여기서 고수란 출력이 같은 모양인 다른 딥러닝 모델입니다. 고수가 뱉은 출력을 정답이라 믿고 이 출력과 같아지도록 학습하는 방식이 Distillation입니다. 이 때 보통 학습해서 변화하는 모델을 Student model이라고 하고, 고수 모델을 Teacher model 이라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/buyK9w/dJMcahRGCaK/mKkwFnZP0mhKdORZssieT0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/buyK9w/dJMcahRGCaK/mKkwFnZP0mhKdORZssieT0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/buyK9w/dJMcahRGCaK/mKkwFnZP0mhKdORZssieT0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbuyK9w%2FdJMcahRGCaK%2FmKkwFnZP0mhKdORZssieT0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;714&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러면 Student model 학습 때는 라벨이 필요가 없겠죠?&lt;br /&gt;그저 Teacher model의 출력만 보고 그걸 토대로 학습할 수 있습니다.&lt;br /&gt;하지만 이 distillation에는 한계가 있습니다. 웬만하면 teacher model 이상으로 좋은 성능이 나오지는 않는다는 것이죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음으로 사용하는 잡기술은 &lt;b&gt;EMA(Exponential Moving Average)&lt;/b&gt;입니다.&lt;br /&gt;EMA는 이동 평균을 통해서 학습 과정에서 들쭉날쭉 변하는 weight를 안정적으로 잡아줍니다. 많은 Vision task에서 학습 중인 원래 모델보다 더 좋은 성능을 보이는 경우가 많습니다. 이 말인 즉슨 학습하는 과정중에서 학습 중인 모델 자기 자신보다 더 뛰어난 모델이 존재한다는 뜻입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Centering Sharpening&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Dino에서 자기 자신보다 뛰어난 EMA teacher로부터 전수받아서 자기 자신도 발전시키고, 그 직후에 ema 모델도 조금 더 향상되고 이 과정을 반복한다고 했습니다. 하지만 문제가 있다고 했는데 이건 collapse라는 요행의 늪에 빠지기 쉽다고 했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;collapse가 뭐냐면 학습 과정에서 모델이 loss 숫자를 줄이는데, 입력의 특성을 배워서 줄이는게 아니라 학습 설계의 빈틈으로 요행을 써서 loss를 줄이는 방법을 의미합니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;mode collapse는 한 숫자만 만들어도 학습 설계에 문제가 없는 상태&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 loss는 낮아지지만 모델을 학습해서 활용하고자 했던 목적은 제대로 수행하지 못합니다. 그래서 이번에는 dino가 무슨 collapse에 빠지고 이 collapse를 어떻게 피하는지 알아보겠습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cQ9WGU/dJMcacbM4sI/zrzqKpI7DBPDsexvkzg9BK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cQ9WGU/dJMcacbM4sI/zrzqKpI7DBPDsexvkzg9BK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cQ9WGU/dJMcacbM4sI/zrzqKpI7DBPDsexvkzg9BK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcQ9WGU%2FdJMcacbM4sI%2FzrzqKpI7DBPDsexvkzg9BK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;714&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫 번째 방법은 &lt;b&gt;centering&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일단 centering이 뭔지 보기 전에요 centering으로 풀고자 하는 collapse가 무슨 증상인지부터 보겠습니다. dino 모델은 라벨은 정해주지 않았지만 일단 출력으로 뭔가인 것 같다는 classification을 한다고 했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 모델의 출력에 softmax를 해서요 뭔가 일 것 같다는 확률을 출력합니다. 그런데 아까 했던 설명 dino는 자기 자신의 ema의 출력을 teacher로 삼는다고 했습니다. EMA는 현재의 모델과 과거의 모델을 가지고 만들어진다고 했는데요 하지만 만약에 과거와 현재의 항상 모든 입력에 대해서 같은 출력을 내왔다면 어떨까요 ?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어서 출력 벡터의 3번째만 0.99 나머지는 아주 작게 이런 출력을요 항상 어떤 입력이 들어와도 이렇게만 출력을 내도록 모델이 요행을 부린다, 이러면 어떨까요 ? teacher의 출력이랑 같으니까 loss는 작은데요 어떻죠?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;classification을 제대로 하는 모델은 아니겠죠? 더 중요한건 EMA는 어차피 자기 자신으로부터 만드니까요 새로 계산된 ema도 같은 출력을 낼 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이 collapse를 해결하지 못하면 모델은 학습 과정에서 한 가지 출력에만 꽂혀서 제대로 학습되지 않을 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;이 collapse를 centring으로 해결합니다.&lt;/b&gt; teacher 역할의 EMA 모델에서 softmax 직전 벡터를 어떤 벡터로 빼줄 겁니다. 빼주는 벡터는요 minibatch 축의 자기 자신 평균입니다. 정확하게는 자기 자신 평균 자체도 EMA로 업데이트를 해서 EMA 벡터를 빼긴 합니다. 아무튼 핵심 의미는 자기 자신 평균을 빼는건데 이 행위의 의미는 뭘까요 ?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;바로 특정 출력으로 쏠림을 방지한다는 것입니다. 아까의 collapse 상황처럼 계속 특정 출력에 쏠려있으면 이 평균 벡터도 특정 출력 위치에 쏠린 상태겠죠? 하지만 centering에서 이 벡터로 빼니까 출력이 하나로 몰리지 않고 분산되도록 퍼진 상태를 만듭니다. 그래서 이 centering을 통해서 입력이 서로 달라 보이면 다른 값의 벡터를 출력하도록 올바르게 학습시킵니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그런데 centering 만으로는 부족한데요, 반대 성질의 다른 collapse도 있기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 collapse도 한 상태의 출력만 내긴 하는데요, 이번에는 그 출력이 전부다 고르게 분포할 경우입니다. 이게 무슨 말이냐면 이번에도 모델은 항상 같은 출력을 내는데요, 합 확률 1을 전체가 거의 같게 나눠가집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러면 이런 출력으로 계속 유지되는 teacher라도요 student가 그대로 따라하면 loss는 낮고 teacher는 변함이 없겠죠 ? 심지어 더 문제는요 centering은 이걸 해결해주지 못하고 이런 출력 평탄화를 더 가속화합니다. 벡터에서 약간이라도 큰 값이 있으면 centering에서 억제돼서 평평하게 바뀌는거죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이걸 해결하는 방법을 &lt;b&gt;Sharpening&lt;/b&gt;이라고 부릅니다. sharpening은 teacher 모델에서 softmax의 logit에다가요 0.0x로 나누는 즉, logit을 곱셈 뻥튀기하는 방식입니다. 곱셈 뻥튀기를 하면 출력들의 조그마한 차이도 이 차이를 더 키우구요 여기에 softmax에는 exponential이 있으니까 차이가 한 번 더 벌어집니다. 이 sharpening으로 점점 더 평평한 분포가 되는 collapse를 해결해서요 어느 하나를 분명히 고르도록 만드는 효과를 냅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;centring과 sharpening을 적당히 먹이면은요 Dino가 collapse 요행에 빠지지 않습니다. sharpening으로 teacher 모델 출력이 어느 하나를 분명히 선택하게 해서요 의미없이 평평하게 분포하게 되는 걸 막습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러면 어느 하나를 분명히 고르긴 하지만요 sharpening만으로는 항상 같은 것만 선택할 수도 있죠? (sharpening만 쓰면 하나만 선택 -&amp;gt; 무작위성 제거 -&amp;gt; 엔트로피 0)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 때 centering으로 하나만 고르는 상황을 억제합니다. 이렇게 학습된 dino는 서로 같은 입력에 대해서는 같은 출력을 내면서요 서로 다른 것은 다르다고 확신하도록 학습됩니다. 이렇게 dino는 ema로 자신을 학습하는 방식에 두 가지 안전 장치인 centering과 sharpening으로 모델을 ssl합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다른 모델들은 예를 들어 SimCLR의 경우 다른 sample로부터의 repulsion으로 force 방향을 정하거나 MoCo의 경우 SimCLR + Momentum queue를 사용합니다. 모두 근본적으로 &quot;output distribution이 degenerate해지는 것을 막는다&quot;는 &lt;b&gt;같은 목표죠. &lt;/b&gt;차이는 제약을 &lt;b&gt;(a) sample-sample 관계&lt;/b&gt;, &lt;b&gt;(b) sample-teacher 관계&lt;/b&gt;, &lt;b&gt;(c) sample-population statistics&lt;/b&gt;, &lt;b&gt;(d) sample-cluster 관계&lt;/b&gt; 중 어디에 걸었느냐입니다.&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;DiNOv2 and v3&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Dino v2, v3는 스케일링 이슈, 다른 말로 v1 때보다 큰 규모로 학습할 때의 이야기입니다.&lt;br /&gt;논문을 보면 여러 키워드들이 나와서 혼란스러운데요 크게 두 가지로 분류됩니다.&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;DiNO에다가 다른 논문의 방법론을 차용했다.&lt;/li&gt;
&lt;li&gt;타 논문이랑 다른 방법을 사용하거나 직접 방법을 고안했다.&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2는 Data Curation과 Global vs Local로 나뉩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 Data Curation은 쉽게 말해서 정제입니다. 웹에서 수집한 데이터가 너무 날 것이라서 입니다. 모델 사이즈를 키울건데, overfitting이 발생하지 않도록 하려면 데이터도 많이 필요하죠 ? 그래서 이미지 수집을 엄청해서 이미지는 많이 모였습니다.&lt;br /&gt;그런데 문제가 있는 것은 중복과 의미없는 데이터가 너무 많습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;먼저 중복을 보면, 유명한 짤은 똑같은 짤들이 여러 블로그와 여러 사이트에서 쓰고 그러죠? 문제는 이걸 그냥 모은 상태 그대로 학습에 쓰면, 모델이 유명한 짤에 weight를 더 많이 주게 됩니다. 반대로 희소한 데이터의 경우 상대적으로 중복이 별로 없을테니까요, 겹치는 경우가 별로 없어서 가중치가 적을겁니다. 그런데 이걸 하나씩 가중치를 설정해줄 수 없으니 여기서 사용하는게 Data Curation입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Dino v2에서는 이 data curation에 Deduplication과 Retrieval을 사용했습니다.&lt;br /&gt;Deduplication은 이미지별로 임베딩을 뽑아서 너무 똑같은 것들은 지웁니다. 그래서 중복을 방지하는 역할이고, Retrieval은 이미지를 기반으로 검색하는데요 잘 마련딘 데이터로 검색해서 같은 범주의 이미지들을 확보합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1139&quot; data-origin-height=&quot;326&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dCwhEn/dJMcafM9FKL/v8i1TOFukvWZQIOanpOx71/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dCwhEn/dJMcafM9FKL/v8i1TOFukvWZQIOanpOx71/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dCwhEn/dJMcafM9FKL/v8i1TOFukvWZQIOanpOx71/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdCwhEn%2FdJMcafM9FKL%2Fv8i1TOFukvWZQIOanpOx71%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1139&quot; height=&quot;326&quot; data-origin-width=&quot;1139&quot; data-origin-height=&quot;326&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 둘의 효과는 뭘까요 ?&lt;br /&gt;날 것의 대규모 데이터에서요 너무 겹치는 것들 혹은 단색 이미지처럼 의미없는 이미지도 걸러지게 됩니다. 그러면서 일반적인 공개 데이터셋들보다 더 큰 규모로 데이터를 확보할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Data curation은 v2 뿐만 아니라 v3에서도 하는데요, v2의 방법에 Clustering이 추가됩니다.&lt;br /&gt;좀 더 디테일하게는 5 level clustering이라고 하는데요, 쉽게 말해서 학습시킬 때 이미지를 바로 랜덤으로 뽑는게 아니라 cluster를 랜덤으로 뽑고, 그 다음에 cluster에서 이미지를 뽑습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그게 무슨 의미냐면 원래는 랜덤으로 샘플링했을 때, 모든 이미지가 같은 확률이죠?(샘플링)&lt;br /&gt;하지만 어떤 종류의 이미지들은 많고 어떤 종류의 이미지는 적을 수 있는데요.&lt;br /&gt;그러면 샘플이 많은 종류의 이미지로 모델이 편향될 수 있습니다. 그런데 cluster를 먼저 샘플링하면 이미지 종류마다 골고루 노출되니까요 균형잡힌 분포로 모델을 학습시킬 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;5 level cluster는 뭐냐면 cluster 내부에서 더 세세하게 이미지 임베딩을 큰 덩어리로 나누고 그 안에 덩어리끼리 또 나누는 방식으로 진행하는 것입니다. 이렇게 하면 각 cluster마다 균형잡힌 분포로 샘플링 됩니다. 만약 개랑 닭이 9:1 비율로 있어도 다른 클러스터에 있다면 비슷한 횟수로 모델에 사용되는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 다음은 global과 local의 충돌입니다. 이건 Dinov3에서 언급합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;674&quot; data-origin-height=&quot;411&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cy8MSK/dJMcabcQWM8/XaBegIDKpL5tQwgp9fj6h1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cy8MSK/dJMcabcQWM8/XaBegIDKpL5tQwgp9fj6h1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cy8MSK/dJMcabcQWM8/XaBegIDKpL5tQwgp9fj6h1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcy8MSK%2FdJMcabcQWM8%2FXaBegIDKpL5tQwgp9fj6h1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;674&quot; height=&quot;411&quot; data-origin-width=&quot;674&quot; data-origin-height=&quot;411&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;충돌을 성능으로 확인합니다. 학습 과정을 보니까요 classification은 계속 올라가지만 segmentation 능력은 peak를 찍고 떨어지고 있네요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;classification은 이미지를 전체적으로 봐야하니까 global representation 정보 기반입니다. 반면에 segmentation은 이미지의 디테일을 잘 잡아야 하니까요 local한 dense feature가 중요합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그런데 segmentation 성능이 점점 떨어진다고 했죠 ?&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1137&quot; data-origin-height=&quot;415&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nN0dz/dJMcahc54iT/0SSlGvk4snSv6LEcNKVkS1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nN0dz/dJMcahc54iT/0SSlGvk4snSv6LEcNKVkS1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nN0dz/dJMcahc54iT/0SSlGvk4snSv6LEcNKVkS1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FnN0dz%2FdJMcahc54iT%2F0SSlGvk4snSv6LEcNKVkS1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1137&quot; height=&quot;415&quot; data-origin-width=&quot;1137&quot; data-origin-height=&quot;415&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왜 그런지 보니까요 학습 초반에는 patch가 자기 근처의 요소, 의미적으로 자기 자신이 속한 곳과 유사도가 높습니다. 학습 초반에는 꽃잎 패치가 자기들끼리 attention이 높게 잡히죠?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;즉 segmentation이 잘 된다고 할 수 있습니다. 하지만 이 능력은 학습이 진행되면서 점점 떨어지는데요 이 때 고점 성능을 회복시키기 위해서 gram anchoring이라는 것을 사용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;고점 상태의 모델을 teacher로 두고 이 teacher의 patch 별 출력을 뽑아서요 모든 patch간 내적이 현재 student와 같아지도록 만듭니다. 고점 상태의 모델은 patch간 상관관계가 깔끔하게 나올테니까요 논문에서는 dense feature가 high quality인 상황입니다. 그러면 student가 고점 상태의 teacher의 dense feature를 쫓아가면은요 나중에도 dense feature가 깔끔하게 회복되는 것을 확인할 수 있습니다. &lt;b&gt;신기한 점은 이 gram acnchoring은 초반이나 고점을 찍은 뒤에 바로 쓰지 않습니다. 이미 학습을 많이 시킨 후에 마지막에 잠깐 켜서 교정&lt;/b&gt;처럼 시킵니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;883&quot; data-origin-height=&quot;526&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/WYE7b/dJMcaaSBdQl/d6GqnYuFmWkSphmE9Gskb1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/WYE7b/dJMcaaSBdQl/d6GqnYuFmWkSphmE9Gskb1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/WYE7b/dJMcaaSBdQl/d6GqnYuFmWkSphmE9Gskb1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FWYE7b%2FdJMcaaSBdQl%2Fd6GqnYuFmWkSphmE9Gskb1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;883&quot; height=&quot;526&quot; data-origin-width=&quot;883&quot; data-origin-height=&quot;526&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;DiNO Pretrain의 핵심&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Multicrop은 다양한 crop으로 만드는 학습 전략.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ViT에 대해서 먼저 알아야 합니다. Vit, Vision Transformer에서는 3가지를 알면 됩니다.&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;이미지를 patch 단위로 쪼갠다.&lt;/li&gt;
&lt;li&gt;Transformer 구조로 이미지를 이해한다.&lt;/li&gt;
&lt;li&gt;Classification은 CLS token을 쓴다&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 첫 번째 patch 단위입니다. ViT 이전에는 주로 pixel 단위 이미지를 입력했습니다. 그런데 vit의 transformer는 토큰처럼 의미 단위 취급을 위해서 이미지를 patch로 만듭니다. 이걸 한 샘플 당 정보의 크기 관점에서 보면 patch 단위가 pixel 단위보다 정보가 많죠 ?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;pixel은 단순히 한 점이지만, patch는 의미 단위, NLP에서 subword같은 단위라고 볼 수 있습니다. 그래서 ViT에서는 의미 단위로 Attention 할 수 있도록 이미지를 Patch 단위의 2D 나열로 입력받습니다. 그리고 그 다음 Transformer 구조로 이미지를 이해한다는 점인데요, 그 중에서도 Encoder Only Transformer 형태로 Patch 단위로 self attention해서 이미지를 이해합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아까 말했듯이 이미지를 patch 단위로 표현하고요, self attention은 patch 간의 상관관계를 분석합니다. 그리고 마지막 cls token은 BERT에서도 쓰는데, CLS token의 필요성을 설명하기 위해서 self attention 구조를 먼저 보겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;self attention을 잠깐 복습하자면&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;self attention은 입력과 출력이 같은 shape이고 그 shape는 patch의 나열입니다. self attention 출력의 각 patch는 전체 patch와의 상관관계가 한 차례 분석된 결과입니다. 하지만 이 구조에서는 classification 같은 task에 쓸 patch 정의가 어렵습니다. 왜일까요? 어떤 patch를 classification에 쓸 거라고 정해야하는데요 문제는 모델 설계 단계에서는 그걸(주요 patch를) 아직 알 수 없습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심지어 더 최악은요 이미지 크기가 다르면 patch 개수도 다르니까요 출력이 일관된 구조인 상황도 아닙니다. 바로 그래서 cls token을 사용합니다. 이미지랑 상관없이 특정 task에 쓸 임시 patch를 두고 encoder layer stack의 마지막에 CLS token을 task에 사용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러면 이 CLS Token은 어떤 이미지 입력에서든 존재해서 항상 task를 수행해왔죠? 그래서 task에 맞는 attention mapping이 되어 있을 것입니다. Inference 단계에서도 이 CLS Token은 attention mapping이 잘 되어있고 이 task를 잘 수행하기 위한 준비가 되어있습니다. 그래서 어떤 이미지가 들어오든 일관되게 task를 수행하기 위해서 이 task token의 역할로써 CLS token이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Appendix&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DiNO의 Gradient flow&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/d10GFT/dJMcadPepRj/PWJ3bQXIo8kPwOSwEn5ff0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/d10GFT/dJMcadPepRj/PWJ3bQXIo8kPwOSwEn5ff0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/d10GFT/dJMcadPepRj/PWJ3bQXIo8kPwOSwEn5ff0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fd10GFT%2FdJMcadPepRj%2FPWJ3bQXIo8kPwOSwEn5ff0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1536&quot; height=&quot;1024&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/149</guid>
      <comments>https://minyoungxi.tistory.com/149#entry149comment</comments>
      <pubDate>Thu, 23 Apr 2026 16:00:20 +0900</pubDate>
    </item>
    <item>
      <title>얀 르쿤은 말했다. LLM을 이기는건 JEPA (Joint Embedding Predictive Architecture)라고.</title>
      <link>https://minyoungxi.tistory.com/148</link>
      <description>&lt;h1 data-heading=&quot;얀 르쿤의 역작 JEPA(Joint Embedding Predictive Architecture)&quot;&gt;얀 르쿤의 역작 JEPA(Joint Embedding Predictive Architecture)&lt;/h1&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;단순한 파라미터 확장과 데이터 증가에 의존하는 기존의 딥러닝 스케일링(Scaling) 패러다임은 AI의 질적 추론 능력 향상에 한계를 보이고 있습니다. 얀 르쿤(Yann LeCun)은 이러한 구조적 단점을 극복하고, AI가 물리적 세계의 동역학을 이해하는 '월드 모델(World Model)'을 구축하기 위한 대안으로 &lt;/span&gt;&lt;b data-index-in-node=&quot;182&quot; data-path-to-node=&quot;1&quot;&gt;JEPA&lt;/b&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;를 제안합니다.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한 기존 패러다임의 한계는 &lt;a style=&quot;background-color: #e6f5ff; color: #0070d1; text-align: start;&quot; href=&quot;https://namu.wiki/w/%EB%AA%A8%EB%9D%BC%EB%B2%A1%EC%9D%98%20%EC%97%AD%EC%84%A4?utm_campaign=topic-4-jepa-joint-embedding-predictive-architecture&amp;amp;utm_medium=referral&amp;amp;utm_source=turingpost.co.kr&quot; data-tooltip-position=&quot;top&quot;&gt;모라벡의 역설&lt;/a&gt;&lt;span style=&quot;color: #333333; text-align: start;&quot;&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;(Moravec&amp;rsquo;s Paradox)&lt;/span&gt; 과 맞닿아 있습니다. 현재의 컴퓨팅 시스템은 복잡한 수학적 연산과 대규모 데이터 처리에는 탁월한 성능을 보이지만, 인간이 직관적으로 수행하는 기초적인 지각 및 감각 처리에는 여전히 취약합니다. 이는 단순히 모델의 규모를 키우는 방식만으로는 지능의 본질적인 도약을 이뤄낼 수 없음을 시사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결과적으로 현재의 모델 학습 구조로는 AI 에이전트가 주변 환경을 인지하고 추론하는 월드 모델을 온전히 구성할 수 없습니다. 인간 수준의 지능에 도달하기 위해서는 근본적인 방법론의 전환이 요구되며, 얀 르쿤은 데이터의 양적 팽창에 의존하는 대신 추상적 표현 레벨에서의 예측(Predictive)에 집중하는 JEPA 아키텍처를 그 필수적인 첫걸음으로 정의합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기, 딥러닝의 3대 구루 중 한 명인 &lt;a href=&quot;https://namu.wiki/w/%EC%96%80%20%EB%A5%B4%EC%BF%A4?utm_campaign=topic-4-jepa-joint-embedding-predictive-architecture&amp;amp;utm_medium=referral&amp;amp;utm_source=turingpost.co.kr&quot; data-tooltip-position=&quot;top&quot;&gt;얀 르쿤&lt;/a&gt;은, 바로 &amp;lsquo;JEPA (Joint Embedding Predictive Architecture)가 그 첫걸음이라고 이야기합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1190&quot; data-origin-height=&quot;772&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/2DUwf/dJMcagSIsqT/XgQGaVfbJJ8Dg0kfvmbiU0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/2DUwf/dJMcagSIsqT/XgQGaVfbJJ8Dg0kfvmbiU0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/2DUwf/dJMcagSIsqT/XgQGaVfbJJ8Dg0kfvmbiU0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F2DUwf%2FdJMcagSIsqT%2FXgQGaVfbJJ8Dg0kfvmbiU0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1190&quot; height=&quot;772&quot; data-origin-width=&quot;1190&quot; data-origin-height=&quot;772&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-heading=&quot;LLM의 한계점&quot; data-ke-size=&quot;size26&quot;&gt;LLM의 한계점&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;얀 르쿤은 목적 기반 AI(Objective-Driven AI)라는 용어를 종종 강연에서 언급을 했습니다.&lt;br /&gt;목적 기반 AI를 언급하며 거대언어모델 LLM의 한계에 대해서 폭넓게 이야기 했는데요, 주요 내용은 아래와 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;651&quot; data-origin-height=&quot;700&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dbMY9V/dJMcajhyh7K/B8Mq5z7RLCfgRFYl0uOKZk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dbMY9V/dJMcajhyh7K/B8Mq5z7RLCfgRFYl0uOKZk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dbMY9V/dJMcajhyh7K/B8Mq5z7RLCfgRFYl0uOKZk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdbMY9V%2FdJMcajhyh7K%2FB8Mq5z7RLCfgRFYl0uOKZk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;651&quot; height=&quot;700&quot; data-origin-width=&quot;651&quot; data-origin-height=&quot;700&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;엄밀하게 따지면 LLM은 '상식'이라는 개념이 없습니다
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;LLM은 텍스트로 표현되는 것 그 너머에 있는 근본적인 현실(Reality)에 대한 지식은 아주 제한적으로만 갖고 있을 뿐 또는 갖고 있는 것처럼 보일 뿐이고 '환각(Hallucination)'이라고 부르는 이상한 실수들을 저지릅니다. 예를 들어서, &lt;a href=&quot;https://arxiv.org/abs/2301.06627?utm_source=www.turingpost.com&amp;amp;utm_medium=referral&amp;amp;utm_campaign=topic-4-what-is-jepa&quot; data-tooltip-position=&quot;top&quot;&gt;&amp;lsquo;Dissociating Language and Thought in Large Language Models&lt;/a&gt;&amp;rsquo;라는 논문을 보면, LLM이 언어의 규칙이라든가 패턴 같은 &amp;lsquo;형식적&amp;rsquo;인 언어 능력은 뛰어나지만, 세상의 언어를 실제로 이해하고 사용하는 등의 &amp;lsquo;기능적&amp;rsquo; 언어 능력은 불안정하다는 것을 보여줍니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 data-heading=&quot;**월드 모델 (World Models)**&quot; data-ke-size=&quot;size20&quot;&gt;&lt;b&gt;월드 모델 (World Models)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;얀 르쿤이 생각하는 &amp;lsquo;AI에 대한 비전의 핵심&amp;rsquo;에는 &amp;lsquo;월드 모델&amp;rsquo;이라는 개념이 있습니다. 월드 모델이라는 건, 말 그대로 &amp;lsquo;세계가 움직이는, 작동하는 방식, 원리를 내부적으로 &lt;b&gt;표현 (Representation)&lt;/b&gt; 한 것&amp;rsquo;이라고 할 수 있겠습니다. 얀 르쿤은 AI 모델에게 &amp;lsquo;주변 세계의 맥락&amp;rsquo; - 즉 월드 모델 - 을 부여할 수 있다면, 모델의 성능을 개선할 수 있다고 이야기합니다.&lt;/p&gt;
&lt;h4 data-heading=&quot;**자기지도 학습 (Self-supervised Learning)**&quot; data-ke-size=&quot;size20&quot;&gt;&lt;b&gt;자기지도 학습 (Self-supervised Learning)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또 하나의 중요한 관점은, 주변을 관찰하면서 세상에 대해서 학습하는 아기처럼, 자기지도 학습을 사용하는 겁니다. GPT, BERT, LLaMA 및 기타 파운데이션 모델은 모두 이 자기지도 학습 방법론을 기반으로 해서 우리가 머신러닝을 활용하는 방식을 바꿨습니다.&lt;/p&gt;
&lt;h4 data-heading=&quot;**추상적 표현 (Abstract Representations)**&quot; data-ke-size=&quot;size20&quot;&gt;&lt;b&gt;추상적 표현 (Abstract Representations)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-path-to-node=&quot;1&quot; data-ke-size=&quot;size16&quot;&gt;자기지도 학습(Self-Supervised Learning) 아키텍처에서 모델은 센서에 입력되는 정보 중 학습에 유효한 데이터와 불필요한 노이즈를 명확히 구분해야 합니다. 이는 모델이 각 상태(State) 전이 과정에서 유의미한 특징(Feature)만을 선별적으로 대조하고 인지할 수 있어야 함을 의미합니다.&lt;/p&gt;
&lt;p data-path-to-node=&quot;2&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-path-to-node=&quot;2&quot; data-ke-size=&quot;size16&quot;&gt;이러한 필터링 메커니즘은 연속된 시야에서 불필요한 디테일을 소거하고 핵심적인 차이만을 인지하는 인간의 시각 처리 과정과 유사합니다. 표면적으로는 정보의 손실이나 인지적 한계로 보일 수 있는 이러한 정보 취사선택 과정이, 실제로는 주어진 맥락(Context)에 가장 적합한 데이터의 본질을 추출하는 핵심 최적화 요소로 작용합니다.&lt;/p&gt;
&lt;p data-path-to-node=&quot;3&quot; data-ke-size=&quot;size16&quot;&gt;이러한 관점에 기반하여 얀 르쿤은 아키텍처 설계 시 기존의 픽셀 단위(Pixel-level) 비교 방식을 지양해야 한다고 주장합니다. 대신 이미지의 핵심 의미망을 압축한 &lt;b&gt;'추상적 표현(Abstract Representation)'&lt;/b&gt;을 도출하여 이를 기반으로 모델이 예측을 수행하도록 만드는 것이 더 적절한 접근법이라고 제안합니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;'추상적 표현'은 복잡한 정보를 특정 작업 또는 분석을 하는데 더 적합하고 의미있도록 단순화하는 것을 말합니다. 이런 '표현'은 대상의 중요한 측면에 더 집중하고 덜 중요한 세부 사항은 무시하는 방법으로, 시스템 (그게 사람이든 기계든 간에)이 정보를 보다 '효율적'이고 '효과적'으로 처리할 수 있게 해 줍니다.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4 data-heading=&quot;**아키텍처 - 목적 기반 AI (Objective-Driven AI)**&quot; data-ke-size=&quot;size20&quot;&gt;&lt;b&gt;아키텍처 - 목적 기반 AI (Objective-Driven AI)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;얀 르쿤은 자율 인공지능 (Autonomous Intelligence)를 위한 모듈화된 (Modular), 제어 가능한 (Configurable) 아키텍처를 제안하면서, 엄청난 양의 레이블 데이터 없이도 AI가 월드 모델을 학습할 수 있는 자기지도 학습 방법의 중요성을 강조합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;727&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cePuyi/dJMcagZsgS0/yGB5P2NdQC3dodHAYRMxsk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cePuyi/dJMcagZsgS0/yGB5P2NdQC3dodHAYRMxsk/img.png&quot; data-alt=&quot;Image Credit: Meta AI blog post, Yann LeCun on a vision to make AI systems learn and reason like animals and humans&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cePuyi/dJMcagZsgS0/yGB5P2NdQC3dodHAYRMxsk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcePuyi%2FdJMcagZsgS0%2FyGB5P2NdQC3dodHAYRMxsk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1292&quot; height=&quot;727&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;727&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Image Credit: Meta AI blog post, Yann LeCun on a vision to make AI systems learn and reason like animals and humans&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 data-heading=&quot;**JEPA는 무엇이고 어떻게 작동하는가?**&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;JEPA는 무엇이고 어떻게 작동하는가?&lt;/b&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;JEPA (Joint Embedding Predictive Architecture)는, AI가 물리적 세계를 인지하고 상호작용하는 '월드 모델'을 구현하기 위한 핵심 집약체입니다. 이 아키텍처는 예측에 필수적인 정보만을 유지하고 불필요한 세부 사항은 무시함으로써, 연산 및 추론 과정에서 발생하는 불확실성을 효과적으로 제어하도록 설계되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;JEPA는 이렇게 작동합니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;입력 (Inputs):&lt;/b&gt; JEPA는 서로 관련있는 입력 쌍을 받습니다. 예를 들어 비디오라면 순차 프레임 (&lt;span&gt;x&lt;/span&gt; 는 현재의 프레임, &lt;span&gt;y&lt;/span&gt; 는 다음 프레임이라든가)을 받는 거죠.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;인코더 (Encoders)&lt;/b&gt;:&lt;span&gt;x&lt;/span&gt;와 &lt;span&gt;y&lt;/span&gt; 쌍의 입력을 받으면, 인코더는 입력값의 필수적인 특징만 포착을 하고, 관련이 없는 세부 사항은 생략해서 추상적 표현 (Abstract Representation; 각각 &lt;span&gt;s_x&lt;/span&gt; 와 &lt;span&gt;s_y&lt;/span&gt;)로 변환합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;예측 (Predictor) 모듈:&lt;/b&gt; 현재 프레임을 추상적으로 표현한 &lt;span&gt;s_x&lt;/span&gt;를 기반으로 다음 프레임의 추상적 표현 &lt;span&gt;s_y&lt;/span&gt;를 예측하도록 트레이닝됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;말 그대로 인코딩한 &amp;lsquo;임베딩 (Embedding; 위에서는 &amp;lsquo;추상적 표현&amp;rsquo;이죠)&amp;rsquo;을 결합 (Joint)해서 예측 (Predictive) 모듈을 트레이닝하는 아키텍처 (Architecture)죠.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 입력을 변환하고 예측 모듈을 트레이닝하는 과정에 &amp;lsquo;불확실성 (Uncertainty)&amp;rsquo;이 있을 수밖에 없는데요. JEPA는 두 가지 방법으로 이 불확실성을 처리합니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;인코딩하는 단계에서, 인코더가 관련이 없는 정보를 삭제합니다.&lt;/b&gt; 예를 들어서, 입력 데이터의 어떤 Feature가 너무 불확실하거나 노이즈가 끼어 있다면, 이를 입력값의 추상적 표현 (Abstract Representation)에 포함하지 않습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;인코딩을 한 후 잠재 변수 (Latent Variable;&lt;/b&gt; &lt;b&gt;z&lt;/b&gt;)를 활용합니다. 잠재 변수 &lt;b&gt;z&lt;/b&gt; 는 &lt;span&gt;S_y&lt;/span&gt; 에는 있지만 &lt;span&gt;S_x&lt;/span&gt; 에서는 관찰할 수 없는 요소를 말합니다. &lt;span&gt;z&lt;/span&gt;는 미리 정의된 값의 집합 내에서 여러가지 값을 가질 수 있는데요, 이 각각의 값은 &lt;span&gt;x&lt;/span&gt;에서는 관찰할 수 없지만 미래의 상태 &lt;span&gt;y&lt;/span&gt;에 나타날 수 있는 가설적인 시나리오나 상태를 나타냅니다. &lt;span&gt;z&lt;/span&gt; 값을 변경해 가면서, 보이지 않는 요소의 작은 변화가 이후의 상태에 어떤 영향을 미칠 수 있는지 예측 모델이 시뮬레이션할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;728&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/U5EVA/dJMcabRn7j0/VXJHsmZnetnQCDaynf9VfK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/U5EVA/dJMcabRn7j0/VXJHsmZnetnQCDaynf9VfK/img.png&quot; data-alt=&quot;Image Credit: Yann LeCun&amp;amp;rsquo;s Munich presentation (September 29, 2023)&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/U5EVA/dJMcabRn7j0/VXJHsmZnetnQCDaynf9VfK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FU5EVA%2FdJMcabRn7j0%2FVXJHsmZnetnQCDaynf9VfK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1292&quot; height=&quot;728&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;728&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Image Credit: Yann LeCun&amp;rsquo;s Munich presentation (September 29, 2023)&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;재미있는 건, 여러 개의 JEPA를 다단계로 (multistep) 또는 반복 (recurrent)되도록 결합하거나, 계층적인 JEPA (Hierarchical JEPA)로 쌓아올려서 여러 단계의 추상화 수준, 여러 개의 타임 스케일에서 예측을 하도록 할 수도 있다는 겁니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-heading=&quot;I-JEPA : 이미지를 위한 JEPA&quot; data-ke-size=&quot;size23&quot;&gt;I-JEPA : 이미지를 위한 JEPA&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2023년 6월 발표된 &lt;a href=&quot;https://arxiv.org/abs/2301.08243?utm_source=www.turingpost.com&amp;amp;utm_medium=referral&amp;amp;utm_campaign=topic-4-what-is-jepa&quot; data-tooltip-position=&quot;top&quot;&gt;I-JEPA&lt;/a&gt; (Image-based JEPA)는 JEPA 아키텍처를 기반으로 한 최초의 모델입니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;851&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/vHdHY/dJMcagZsgUz/4FfYwDxnWTJVKd2KkB0gkk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/vHdHY/dJMcagZsgUz/4FfYwDxnWTJVKd2KkB0gkk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/vHdHY/dJMcagZsgUz/4FfYwDxnWTJVKd2KkB0gkk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FvHdHY%2FdJMcagZsgUz%2F4FfYwDxnWTJVKd2KkB0gkk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1292&quot; height=&quot;851&quot; data-origin-width=&quot;1292&quot; data-origin-height=&quot;851&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;마스킹 (Masking)&lt;/b&gt;: 먼저, 이미지를 아주 많은 수의 패치로 분할하고, 이 패치 중 &amp;lsquo;타겟 블럭&amp;rsquo;이라고 부르는 일부 패치를 마스킹 - 가리는 거죠 - 해서 모델이 이 패치들에 대한 정보를 알 수 없게 해 놓습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;컨텍스트 샘플링 (Context Sampling)&lt;/b&gt;: 다시 이 이미지의 일부 - 이건 &amp;lsquo;컨텍스트 블럭&amp;rsquo;이라고 불러줍시다 - 는 마스킹하지 않고 내버려둡니다. 이 컨텍스트 블럭을 사용해서 컨텍스트 인코더가 이미지가 어떻게 시각적으로 구성돼 있는지 나름대로 이해할 수 있게 됩니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;예측 (Prediction)&lt;/b&gt;: 자, 이제 예측 모델이 컨텍스트 블럭의 정보를 가지고 배운 내용을 가지고 마스킹된 부분 (타겟 블럭이라고 했죠)이 어떻게 생겼는지 예측을 해 봅니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;반복 (Iteration)&lt;/b&gt;: 위의 작업을 반복해서 하면서 모델 파라미터를 계속 업데이트합니다. 이 과정에서 마스킹된 실제 패치 그림하고 예측한 패치 그림의 간극 (Gap)이 줄어들겠죠.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위 설명 보시고 짐작하신 분도 있으실 텐데, 구성 요소의 관점에서 I-JEPA는 세 부분으로 이루어져 있고, 이 각각이 모두 &amp;lsquo;비전 트랜스포머 (ViT; Vision Transformer)&amp;rsquo;입니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;컨텍스트 인코더 (Context Encoder)&lt;/b&gt;: 위에서 &amp;lsquo;컨텍스트 블럭&amp;rsquo;이라고 한, 이미지의 가려놓지 않은 부분을 처리합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;예측 모듈 (Predictor)&lt;/b&gt;: 컨텍스트 인코더의 출력을 가지고 과연 이미지의 마스킹된, 가려진 부분이 어떻게 생긴 걸까 예측하고, 그 결과를 가지고 반복적으로 학습합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;타겟 인코더 (Target Encoder)&lt;/b&gt;: 마스킹된 타겟 블럭을 가지고, 모델이 학습하고 예측하는데 사용하는 &amp;lsquo;추상적 표현 (Abstract Representation; Embedding)&amp;rsquo;을 생성합니다. (표현이 좀 추상적이네요 ㅎㅎ)&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;I-JEPA는 궁극적으로는 마스킹된 이미지의 추상적 표현 (Representation)을 정확하게 예측하도록 예측 모듈 (Predictor)을 트레이닝하는 겁니다. 그 과정에서 마스킹되지 않은 부분을 활용하는 거구요. 이렇게 해서 명시적으로 표기된 레이블이 없이도 모델이 성공적으로 학습하게 하는 &amp;lsquo;자기지도 학습&amp;rsquo;이 되는 거죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-heading=&quot;**JEPA의 확장 가능성**&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;JEPA의 확장 가능성&lt;/b&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2024년 3월에 발표된 최신 논문, '&lt;a href=&quot;https://arxiv.org/abs/2403.00504?utm_source=www.turingpost.com&amp;amp;utm_medium=referral&amp;amp;utm_campaign=topic-4-what-is-jepa&quot; data-tooltip-position=&quot;top&quot;&gt;Learning and Leveraging World Models in Visual Representation Learning&lt;/a&gt;&amp;rsquo;에서는, &amp;lsquo;이미지 월드 모델 (IWM; Image World Models)&amp;rsquo;이라는 개념을 소개하면서 &amp;lsquo;마스킹&amp;rsquo;이 아니라 더 다양하고 광범위한 이미지 손상 (색상이 흔들린다든가, 흐린 부분이 있다든가 하는 것들이죠)에도 잘 대응할 수 있도록 JEPA 아키텍처를 &amp;lsquo;일반화&amp;rsquo;, &amp;lsquo;확장&amp;rsquo;할 수있는 방법을 탐색하고 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;691&quot; data-origin-height=&quot;857&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bUbmyt/dJMcaf0xzKs/se1NC591gUCy3HtuuVjVVk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bUbmyt/dJMcaf0xzKs/se1NC591gUCy3HtuuVjVVk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bUbmyt/dJMcaf0xzKs/se1NC591gUCy3HtuuVjVVk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbUbmyt%2FdJMcaf0xzKs%2Fse1NC591gUCy3HtuuVjVVk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;691&quot; height=&quot;857&quot; data-origin-width=&quot;691&quot; data-origin-height=&quot;857&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 연구에서는 &amp;lsquo;두 가지 유형의 월드 모델&amp;rsquo;을 살펴보는데요:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;불변 모델 (Invariant Models)&lt;/b&gt;: 시나리오가 달라지더라도, 변하지 않고 안정적인, 즉 &amp;lsquo;불변의 특징&amp;rsquo;을 인식하고 유지하는 월드 모델입니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;등변량 모델 (Equivariant Models)&lt;/b&gt;: 입력 데이터가 변할 때 따라오는 그 관계와 변환 내용을 보존하는 월드 모델입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 연구는 이런 월드 모델을 활용해서 AI가 시각적인 변화가 있을 때 더 잘 적응하고 더 정확하게 예측할 수 있다는 사실을 발견한 연구입니다. 이런 접근 방식은 기존의 AI에 대한 접근 방식과는 다르게, 직접적인 감독이나 지도가 없이도 머신러닝 모델의 효율성을 높일 수 있는 새로운 아이디어라고 할 수 있겠습니다.&lt;/p&gt;</description>
      <category>Insight</category>
      <category>AI</category>
      <category>JEPA</category>
      <category>Representation Learning</category>
      <category>SSL</category>
      <category>딥러닝</category>
      <category>얀르쿤</category>
      <category>월드 모델</category>
      <category>자기지도 학습</category>
      <category>표현학습</category>
      <category>학습</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/148</guid>
      <comments>https://minyoungxi.tistory.com/148#entry148comment</comments>
      <pubDate>Thu, 16 Apr 2026 11:16:21 +0900</pubDate>
    </item>
    <item>
      <title>[UKB] Olink 단백질이 뭐야 ?</title>
      <link>https://minyoungxi.tistory.com/147</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;UKB에서 사용할 데이터를 탐색 도중 Olink Proteomics 데이터를 발견했다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Genetics 분야는 잘 몰라서 공부한 내용 정리.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1193&quot; data-origin-height=&quot;1139&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Yv2oh/dJMcaiCqYBr/n6pWqQW3okK3vnKuEWblSK/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Yv2oh/dJMcaiCqYBr/n6pWqQW3okK3vnKuEWblSK/img.webp&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Yv2oh/dJMcaiCqYBr/n6pWqQW3okK3vnKuEWblSK/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYv2oh%2FdJMcaiCqYBr%2Fn6pWqQW3okK3vnKuEWblSK%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1193&quot; height=&quot;1139&quot; data-origin-width=&quot;1193&quot; data-origin-height=&quot;1139&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생물학적으로 &lt;b&gt;'Olink 단백질'이라는 특수한 형태의 단백질은 존재하지 않습니다.&lt;/b&gt; UK Biobank(UKB)에 있는 Olink 데이터는 사람의 혈액(혈장) 속에 있는 &lt;b&gt;일반적인 단백질 바이오마커들을 'Olink'라는 기업의 분석 플랫폼을 이용해 정량화한 데이터셋&lt;/b&gt;을 의미합니다. 즉, Olink는 단백질의 이름이 아니라 &lt;b&gt;측정 기술 및 회사 이름&lt;/b&gt;입니다.&lt;/p&gt;
&lt;h3 data-heading=&quot;1. UKB의 Olink 데이터 정의&quot; data-ke-size=&quot;size23&quot;&gt;1. UKB의 Olink 데이터 정의&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;UK Biobank의 Olink 데이터(주로 UK Pharma Proteomics Project, UKB-PPP를 지칭)는 약 5만 명에서 최대 50만 명에 이르는 참가자의 혈장 샘플에서 약 3,000개 수준의 단백질 발현량을 측정한 대규모 프로테오믹스(단백질체학) 데이터입니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;목적:&lt;/b&gt; 유전체 데이터(GWAS)와 단백질 농도 간의 상관관계를 분석(pQTL 분석)하여 질병의 원인을 찾거나 신약 타겟을 발굴하기 위함입니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;출력 형태:&lt;/b&gt; 단백질의 절대적 농도(예: mg/L)가 아니라, &lt;b&gt;&lt;a href=&quot;NPX(Normalized Protein eXpression)&quot; data-href=&quot;NPX(Normalized Protein eXpression)&quot;&gt;NPX(Normalized Protein eXpression)&lt;/a&gt;&lt;/b&gt; 라는 임의의 상대적 로그 척도로 값을 제공합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-heading=&quot;2. 어떻게 생겼는가? (PEA 기술의 분자 구조적 원리)&quot; data-ke-size=&quot;size23&quot;&gt;2. 어떻게 생겼는가? (PEA 기술의 분자 구조적 원리)&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;427&quot; data-origin-height=&quot;118&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bsvLuK/dJMcaf6NiUz/V4bKdtuEHuUmKKif0tkKk0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bsvLuK/dJMcaf6NiUz/V4bKdtuEHuUmKKif0tkKk0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bsvLuK/dJMcaf6NiUz/V4bKdtuEHuUmKKif0tkKk0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbsvLuK%2FdJMcaf6NiUz%2FV4bKdtuEHuUmKKif0tkKk0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;427&quot; height=&quot;118&quot; data-origin-width=&quot;427&quot; data-origin-height=&quot;118&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Olink 기술의 핵심은 &lt;b&gt;PEA (Proximity Extension Assay, 근접 연장 분석법)&lt;/b&gt; 입니다. 단백질 자체가 다르게 생긴 것이 아니라, 이 단백질을 잡아내는 &lt;b&gt;센서의 형태&lt;/b&gt;가 독특합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;측정 과정에서 형성되는 구조는 다음과 같이 생겼습니다.&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;항체-DNA 프로브 (Antibody-DNA Probe):&lt;/b&gt; Olink는 하나의 표적 단백질을 잡기 위해 &lt;b&gt;두 개의 서로 다른 항체&lt;/b&gt;를 사용합니다. 각 항체의 꼬리에는 고유한 바코드 역할을 하는 &lt;b&gt;단일 가닥 DNA(ssDNA)&lt;/b&gt; 가 결합되어 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;근접 및 결합 (Proximity Binding):&lt;/b&gt; 혈장 샘플에 이 항체 쌍을 넣으면, 두 항체가 하나의 표적 단백질의 서로 다른 부위에 동시에 달라붙습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;DNA 이중 나선 형성 (Hybridization):&lt;/b&gt; 두 항체가 같은 단백질에 결합하면 꼬리에 달린 두 가닥의 DNA가 물리적으로 매우 가까워집니다. 이때 두 DNA 가닥의 끝부분이 상보적으로 결합하여 짧은 이중 나선 구조를 만듭니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;연장 및 증폭 (Extension &amp;amp; Amplification):&lt;/b&gt; DNA 중합효소(Polymerase)가 이 결합된 부분을 연장하여 완전한 이중 가닥 DNA 바코드를 생성합니다. 이 DNA 바코드를 차세대 염기서열 분석(NGS)으로 읽어내어 &quot;이 단백질이 샘플에 얼마나 있는가&quot;를 정량화합니다.&lt;/li&gt;
&lt;/ol&gt;</description>
      <category>Bioinformatics</category>
      <category>AI</category>
      <category>bioinformatics</category>
      <category>UKB</category>
      <category>단백질</category>
      <category>단백질학</category>
      <category>유전</category>
      <category>유전인공지능</category>
      <category>유전체</category>
      <category>유전학</category>
      <category>인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/147</guid>
      <comments>https://minyoungxi.tistory.com/147#entry147comment</comments>
      <pubDate>Wed, 4 Mar 2026 21:17:42 +0900</pubDate>
    </item>
    <item>
      <title>[AI News] - 앤트로픽 비판, 왜 성급한가: &amp;lsquo;레드라인&amp;rsquo;은 반국가가 아니라 성숙한 민주주의적 대응이다</title>
      <link>https://minyoungxi.tistory.com/146</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;지난&amp;nbsp;금요일(2월&amp;nbsp;27일),&amp;nbsp;도널드&amp;nbsp;트럼프는&amp;nbsp;트루스소셜에&amp;nbsp;이렇게&amp;nbsp;썼다. &lt;br /&gt;&lt;br /&gt;&lt;i&gt;&quot;앤트로픽의&amp;nbsp;좌파&amp;nbsp;미치광이들이&amp;nbsp;참담한&amp;nbsp;실수를&amp;nbsp;저질렀다.&quot;&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;639&quot; data-origin-height=&quot;670&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dsZ4ln/dJMcachVqyp/OKphNWybEDIWVhyCNxOKDK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dsZ4ln/dJMcachVqyp/OKphNWybEDIWVhyCNxOKDK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dsZ4ln/dJMcachVqyp/OKphNWybEDIWVhyCNxOKDK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdsZ4ln%2FdJMcachVqyp%2FOKphNWybEDIWVhyCNxOKDK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;639&quot; height=&quot;670&quot; data-origin-width=&quot;639&quot; data-origin-height=&quot;670&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;이어&amp;nbsp;모든&amp;nbsp;연방기관에&amp;nbsp;앤트로픽&amp;nbsp;기술의&amp;nbsp;즉시&amp;nbsp;사용&amp;nbsp;중단을&amp;nbsp;지시했고,&amp;nbsp;피트&amp;nbsp;헤그세스&amp;nbsp;국방장관은&amp;nbsp;앤트로픽을&amp;nbsp;&amp;lsquo;공급망&amp;nbsp;위험(Supply-Chain&amp;nbsp;Risk)&amp;rsquo;으로&amp;nbsp;지정했다.&amp;nbsp;미국&amp;nbsp;자국&amp;nbsp;기업에&amp;nbsp;이&amp;nbsp;지정이&amp;nbsp;적용된&amp;nbsp;것은&amp;nbsp;역사상&amp;nbsp;처음이다.&amp;nbsp;기존에는&amp;nbsp;중국&amp;nbsp;군산복합체&amp;nbsp;연계&amp;nbsp;기업에만&amp;nbsp;쓰이던&amp;nbsp;조치다. &lt;br /&gt;&lt;br /&gt;사건의&amp;nbsp;핵심부터&amp;nbsp;정리하자. &lt;br /&gt;&lt;br /&gt;앤트로픽이&amp;nbsp;내건&amp;nbsp;레드라인은&amp;nbsp;정확히&amp;nbsp;두&amp;nbsp;가지다. &lt;br /&gt;&lt;br /&gt;미국&amp;nbsp;시민&amp;nbsp;대상&amp;nbsp;대규모&amp;nbsp;국내&amp;nbsp;감시(mass&amp;nbsp;domestic&amp;nbsp;surveillance)&amp;nbsp;금지 &lt;br /&gt;완전&amp;nbsp;자율살상무기(fully&amp;nbsp;autonomous&amp;nbsp;weapons)&amp;nbsp;금지&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;다리오&amp;nbsp;아모데이&amp;nbsp;CEO&lt;/b&gt;는&amp;nbsp;CBS&amp;nbsp;인터뷰에서&amp;nbsp;이를&amp;nbsp;&amp;ldquo;좁은&amp;nbsp;예외(narrow&amp;nbsp;exceptions)&amp;rdquo;라고&amp;nbsp;불렀고,&amp;nbsp;그&amp;nbsp;외&amp;nbsp;모든&amp;nbsp;합법적&amp;nbsp;국가안보&amp;nbsp;용도는&amp;nbsp;지원하겠다고&amp;nbsp;반복해서&amp;nbsp;밝혔다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;720&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bXV0BG/dJMcah4BrNi/WUOpZdLNGL7IJsPnqvcVL1/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bXV0BG/dJMcah4BrNi/WUOpZdLNGL7IJsPnqvcVL1/img.webp&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bXV0BG/dJMcah4BrNi/WUOpZdLNGL7IJsPnqvcVL1/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbXV0BG%2FdJMcah4BrNi%2FWUOpZdLNGL7IJsPnqvcVL1%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;720&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;720&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;펜타곤은&amp;nbsp;이를&amp;nbsp;거부했다.&amp;nbsp;군의&amp;nbsp;입장은&amp;nbsp;단순하다.&amp;nbsp;AI&amp;nbsp;모델은&amp;nbsp;&lt;i&gt;&amp;ldquo;모든&amp;nbsp;합법적&amp;nbsp;목적(all&amp;nbsp;lawful&amp;nbsp;purposes)&amp;rdquo;&lt;/i&gt;에&amp;nbsp;쓸&amp;nbsp;수&amp;nbsp;있어야&amp;nbsp;하며,&amp;nbsp;대규모&amp;nbsp;감시와&amp;nbsp;자율무기는&amp;nbsp;이미&amp;nbsp;연방법과&amp;nbsp;군&amp;nbsp;내부&amp;nbsp;정책으로&amp;nbsp;금지되어&amp;nbsp;있으니&amp;nbsp;계약서에&amp;nbsp;별도로&amp;nbsp;적을&amp;nbsp;필요가&amp;nbsp;없다는&amp;nbsp;것이다.&amp;nbsp;펜타곤&amp;nbsp;CTO&amp;nbsp;에밀&amp;nbsp;마이클은&amp;nbsp;&amp;ldquo;어느&amp;nbsp;수준에서는&amp;nbsp;군을&amp;nbsp;신뢰해야&amp;nbsp;한다&amp;rdquo;고&amp;nbsp;말했다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;앤트로픽의&amp;nbsp;반론은&amp;nbsp;이랬다.&amp;nbsp;펜타곤이&amp;nbsp;보내온&amp;nbsp;수정&amp;nbsp;계약&amp;nbsp;문구에는&lt;u&gt;&amp;nbsp;&lt;i&gt;&amp;ldquo;그&amp;nbsp;안전장치를&amp;nbsp;임의로&amp;nbsp;무시할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;법적&amp;nbsp;여지(legalese)&amp;rdquo;&lt;/i&gt;&lt;/u&gt;가&amp;nbsp;포함돼&amp;nbsp;있었고,&amp;nbsp;실질적으로는&amp;nbsp;감시와&amp;nbsp;자율무기&amp;nbsp;제한에&amp;nbsp;대해&amp;nbsp;&amp;ldquo;거의&amp;nbsp;진전이&amp;nbsp;없었다&amp;rdquo;는&amp;nbsp;것이다. &lt;br /&gt;&lt;br /&gt;여기서&amp;nbsp;이&amp;nbsp;사안의&amp;nbsp;진짜&amp;nbsp;쟁점이&amp;nbsp;드러난다.&amp;nbsp;&amp;ldquo;협조할&amp;nbsp;것이냐&amp;nbsp;말&amp;nbsp;것이냐&amp;rdquo;가&amp;nbsp;아니라,&amp;nbsp;계약&amp;nbsp;문구의&amp;nbsp;집행&amp;nbsp;가능성(enforceability)이다.&amp;nbsp;펜타곤이&amp;nbsp;&amp;ldquo;법이&amp;nbsp;이미&amp;nbsp;막고&amp;nbsp;있다&amp;rdquo;고&amp;nbsp;말하는&amp;nbsp;것과,&amp;nbsp;그것이&amp;nbsp;계약서에&amp;nbsp;구속력&amp;nbsp;있는&amp;nbsp;조항으로&amp;nbsp;명시되는&amp;nbsp;것은&amp;nbsp;다르다. &lt;br /&gt;&lt;br /&gt;AI&amp;nbsp;기술은&amp;nbsp;기존&amp;nbsp;법이&amp;nbsp;상정하지&amp;nbsp;못한&amp;nbsp;능력을&amp;nbsp;만들어내고&amp;nbsp;있고,&amp;nbsp;아모데이&amp;nbsp;자신이&amp;nbsp;지적했듯이&amp;nbsp;&amp;ldquo;기술이&amp;nbsp;법을&amp;nbsp;앞서고&amp;nbsp;있다.&amp;rdquo;&amp;nbsp;정부가&amp;nbsp;민간&amp;nbsp;데이터를&amp;nbsp;구매해&amp;nbsp;AI로&amp;nbsp;분석하는&amp;nbsp;시나리오는&amp;nbsp;현행법의&amp;nbsp;회색지대에&amp;nbsp;놓여&amp;nbsp;있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;오픈AI는&amp;nbsp;어떻게&amp;nbsp;같은&amp;nbsp;원칙으로&amp;nbsp;계약에&amp;nbsp;성공했는가?&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;300&quot; data-origin-height=&quot;168&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/OXrzp/dJMcabwwU2x/uK90qmAWIgiKje5QJbm3Kk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/OXrzp/dJMcabwwU2x/uK90qmAWIgiKje5QJbm3Kk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/OXrzp/dJMcabwwU2x/uK90qmAWIgiKje5QJbm3Kk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FOXrzp%2FdJMcabwwU2x%2FuK90qmAWIgiKje5QJbm3Kk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;379&quot; height=&quot;212&quot; data-origin-width=&quot;300&quot; data-origin-height=&quot;168&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이&amp;nbsp;부분이&amp;nbsp;가장&amp;nbsp;논쟁적이다. &lt;br /&gt;&lt;br /&gt;샘&amp;nbsp;올트먼은&amp;nbsp;금요일&amp;nbsp;밤&amp;nbsp;자사도&amp;nbsp;대규모&amp;nbsp;감시와&amp;nbsp;자율무기에&amp;nbsp;대한&amp;nbsp;동일한&amp;nbsp;레드라인을&amp;nbsp;갖고&amp;nbsp;있으며&amp;nbsp;&amp;ldquo;이를&amp;nbsp;계약에&amp;nbsp;넣었다&amp;rdquo;고&amp;nbsp;밝혔다.&amp;nbsp;동시에&amp;nbsp;오픈AI는&amp;nbsp;펜타곤이&amp;nbsp;자사&amp;nbsp;기술을&amp;nbsp;&amp;ldquo;모든&amp;nbsp;합법적&amp;nbsp;목적&amp;rdquo;에&amp;nbsp;쓸&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;동의했다.&amp;nbsp;Fortune은&amp;nbsp;&amp;ldquo;이&amp;nbsp;두&amp;nbsp;가지가&amp;nbsp;어떻게&amp;nbsp;동시에&amp;nbsp;참일&amp;nbsp;수&amp;nbsp;있는지&amp;nbsp;불분명하다&amp;rdquo;고&amp;nbsp;지적했다. &lt;br /&gt;&lt;br /&gt;가장&amp;nbsp;유력한&amp;nbsp;해석은&amp;nbsp;이렇다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;784&quot; data-origin-height=&quot;1168&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cAZiLs/dJMb996znRQ/ej9xgUwgZ0h9KTJ5PoRShK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cAZiLs/dJMb996znRQ/ej9xgUwgZ0h9KTJ5PoRShK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cAZiLs/dJMb996znRQ/ej9xgUwgZ0h9KTJ5PoRShK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcAZiLs%2FdJMb996znRQ%2Fej9xgUwgZ0h9KTJ5PoRShK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;538&quot; height=&quot;802&quot; data-origin-width=&quot;784&quot; data-origin-height=&quot;1168&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;오픈AI의&amp;nbsp;계약은&amp;nbsp;현행&amp;nbsp;연방법이&amp;nbsp;이미&amp;nbsp;감시와&amp;nbsp;자율무기를&amp;nbsp;금지하고&amp;nbsp;있다는&amp;nbsp;점을&amp;nbsp;계약서에서&lt;b&gt;&amp;nbsp;&amp;ldquo;확인(acknowledge)&amp;rdquo;&lt;/b&gt;하는&amp;nbsp;방식으로&amp;nbsp;레드라인을&amp;nbsp;반영했을&amp;nbsp;가능성이&amp;nbsp;높다.&amp;nbsp;반면&amp;nbsp;앤트로픽은&amp;nbsp;법과&amp;nbsp;별개로&amp;nbsp;계약&amp;nbsp;자체에&amp;nbsp;독립적인&amp;nbsp;금지&amp;nbsp;조항을&amp;nbsp;명시하길&amp;nbsp;요구했다. &lt;br /&gt;&lt;br /&gt;이&amp;nbsp;차이는&amp;nbsp;사소해&amp;nbsp;보이지만,&amp;nbsp;법적으로는&amp;nbsp;결정적이다. &lt;br /&gt;&lt;br /&gt;전자는&amp;nbsp;법이&amp;nbsp;바뀌면&amp;nbsp;제한도&amp;nbsp;사라진다. &lt;br /&gt;후자는&amp;nbsp;법과&amp;nbsp;무관하게&amp;nbsp;계약&amp;nbsp;위반이&amp;nbsp;된다. &lt;br /&gt;앤트로픽이 왜 펜타곤의 &amp;ldquo;양보안&amp;rdquo;을 거절했는지, 그리고 오픈AI가 왜 통과했는지는 이 구조적 차이에서 나온다.&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;업계 반응은 &amp;lsquo;고립&amp;rsquo;이 아니었다.&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;업계의 반응은 앤트로픽이 고립되지 않았음을 보여줬다. &lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;941&quot; data-origin-height=&quot;555&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/0dCrV/dJMb99MeOQD/sjCEr4vMPcDSNZsnN7OaVk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/0dCrV/dJMb99MeOQD/sjCEr4vMPcDSNZsnN7OaVk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/0dCrV/dJMb99MeOQD/sjCEr4vMPcDSNZsnN7OaVk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F0dCrV%2FdJMb99MeOQD%2FsjCEr4vMPcDSNZsnN7OaVk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;941&quot; height=&quot;555&quot; data-origin-width=&quot;941&quot; data-origin-height=&quot;555&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;300명&amp;nbsp;이상의&amp;nbsp;구글&amp;nbsp;직원과&amp;nbsp;60명&amp;nbsp;이상의&amp;nbsp;오픈AI&amp;nbsp;직원이&amp;nbsp;&amp;ldquo;We&amp;nbsp;Will&amp;nbsp;Not&amp;nbsp;Be&amp;nbsp;Divided&amp;rdquo;&amp;nbsp;공개서한에&amp;nbsp;서명 &lt;br /&gt;구글&amp;nbsp;딥마인드&amp;nbsp;수석과학자&amp;nbsp;제프&amp;nbsp;딘:&amp;nbsp;&amp;ldquo;대규모&amp;nbsp;감시는&amp;nbsp;수정헌법&amp;nbsp;제4조를&amp;nbsp;위반하며&amp;nbsp;표현의&amp;nbsp;자유에&amp;nbsp;위축&amp;nbsp;효과를&amp;nbsp;준다&amp;rdquo; &lt;br /&gt;오픈AI&amp;nbsp;공동창업자&amp;nbsp;일리야&amp;nbsp;수츠케버:&amp;nbsp;&amp;ldquo;앤트로픽이&amp;nbsp;물러서지&amp;nbsp;않은&amp;nbsp;것은&amp;nbsp;극히&amp;nbsp;좋은&amp;nbsp;일&amp;rdquo;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;그렇다면&amp;nbsp;앤트로픽의&amp;nbsp;선택은&amp;nbsp;옳았는가? &lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원칙의&amp;nbsp;차원에서,&amp;nbsp;나는&amp;nbsp;그렇다고&amp;nbsp;본다.&amp;nbsp;이유는&amp;nbsp;세&amp;nbsp;가지다. &lt;br /&gt;&lt;br /&gt;1)&amp;nbsp;반군(反軍)이&amp;nbsp;아니라&amp;nbsp;권력분산&amp;nbsp;원칙의&amp;nbsp;실천 &lt;br /&gt;앤트로픽이&amp;nbsp;요구한&amp;nbsp;것은&amp;nbsp;반군적&amp;nbsp;입장이&amp;nbsp;아니라&amp;nbsp;권력&amp;nbsp;분산이라는&amp;nbsp;미국&amp;nbsp;헌정&amp;nbsp;원리에&amp;nbsp;부합한다.&amp;nbsp;민간&amp;nbsp;사업자가&amp;nbsp;&amp;ldquo;법이&amp;nbsp;알아서&amp;nbsp;해주겠지&amp;rdquo;라고&amp;nbsp;믿는&amp;nbsp;것은&amp;nbsp;순진하다.&amp;nbsp;특히&amp;nbsp;행정부가&amp;nbsp;한국전쟁&amp;nbsp;시대의&amp;nbsp;국방생산법(DPA)까지&amp;nbsp;동원하겠다고&amp;nbsp;위협하는&amp;nbsp;상황에서&amp;nbsp;계약상&amp;nbsp;안전장치를&amp;nbsp;요구하는&amp;nbsp;것은&amp;nbsp;건전한&amp;nbsp;위험관리다. &lt;br /&gt;&lt;br /&gt;2)&amp;nbsp;공급망&amp;nbsp;위험&amp;nbsp;지정은&amp;nbsp;법적으로&amp;nbsp;취약하다 &lt;br /&gt;해당&amp;nbsp;법조항(10&amp;nbsp;USC&amp;nbsp;3252)은&amp;nbsp;원래&amp;nbsp;중국&amp;nbsp;군산복합체&amp;nbsp;연계&amp;nbsp;기업을&amp;nbsp;겨냥한&amp;nbsp;것이며,&amp;nbsp;적용&amp;nbsp;전&amp;nbsp;&amp;ldquo;덜&amp;nbsp;침해적인&amp;nbsp;대안을&amp;nbsp;소진했는지&amp;rdquo;&amp;nbsp;입증해야&amp;nbsp;한다.&amp;nbsp;Fortune이&amp;nbsp;인용한&amp;nbsp;법률&amp;nbsp;전문가는&amp;nbsp;며칠&amp;nbsp;만에&amp;nbsp;급속히&amp;nbsp;격화된&amp;nbsp;이&amp;nbsp;분쟁에서&amp;nbsp;펜타곤이&amp;nbsp;&amp;ldquo;성실한&amp;nbsp;노력(good&amp;nbsp;faith&amp;nbsp;effort)&amp;rdquo;을&amp;nbsp;다했다고&amp;nbsp;주장하기&amp;nbsp;어렵다고&amp;nbsp;지적했다. &lt;br /&gt;&lt;br /&gt;3)&amp;nbsp;AI&amp;nbsp;거버넌스는&amp;nbsp;경쟁력이다 &lt;br /&gt;오픈AI가&amp;nbsp;동일한&amp;nbsp;레드라인을&amp;nbsp;내세우며&amp;nbsp;계약에&amp;nbsp;성공한&amp;nbsp;사실&amp;nbsp;자체가,&amp;nbsp;앤트로픽의&amp;nbsp;원칙이&amp;nbsp;비현실적이지&amp;nbsp;않았음을&amp;nbsp;역설적으로&amp;nbsp;증명한다.&amp;nbsp;올트먼은&amp;nbsp;&amp;ldquo;이&amp;nbsp;조건을&amp;nbsp;모든&amp;nbsp;AI&amp;nbsp;기업에&amp;nbsp;동일하게&amp;nbsp;적용해달라&amp;rdquo;고까지&amp;nbsp;요청했다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;718&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/s7Vsq/dJMcafTfGnC/GQpWBosp0C2r02FWRA7DXk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/s7Vsq/dJMcafTfGnC/GQpWBosp0C2r02FWRA7DXk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/s7Vsq/dJMcafTfGnC/GQpWBosp0C2r02FWRA7DXk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fs7Vsq%2FdJMcafTfGnC%2FGQpWBosp0C2r02FWRA7DXk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;718&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;718&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;하지만&amp;nbsp;낙관하기엔&amp;nbsp;이르다&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;792&quot; data-origin-height=&quot;594&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b80zHd/dJMcafTfGnH/fo29c6cf6tzxoEXQM72Ke0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b80zHd/dJMcafTfGnH/fo29c6cf6tzxoEXQM72Ke0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b80zHd/dJMcafTfGnH/fo29c6cf6tzxoEXQM72Ke0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb80zHd%2FdJMcafTfGnH%2Ffo29c6cf6tzxoEXQM72Ke0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;792&quot; height=&quot;594&quot; data-origin-width=&quot;792&quot; data-origin-height=&quot;594&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;현실적인&amp;nbsp;문제는&amp;nbsp;남아&amp;nbsp;있다. &lt;br /&gt;&lt;br /&gt;앤트로픽은&amp;nbsp;이미&amp;nbsp;연방정부&amp;nbsp;전체에서&amp;nbsp;퇴출&amp;nbsp;수순에&amp;nbsp;들어갔다.&amp;nbsp;6개월&amp;nbsp;유예&amp;nbsp;기간이&amp;nbsp;있지만,&amp;nbsp;헤그세스의&amp;nbsp;해석대로&amp;nbsp;군&amp;nbsp;계약업체&amp;nbsp;전체가&amp;nbsp;앤트로픽과의&amp;nbsp;상업적&amp;nbsp;거래까지&amp;nbsp;중단해야&amp;nbsp;한다면,&amp;nbsp;피해는&amp;nbsp;정부&amp;nbsp;계약&amp;nbsp;규모를&amp;nbsp;훨씬&amp;nbsp;초과한다. &lt;br /&gt;&lt;br /&gt;한&amp;nbsp;분석가의&amp;nbsp;말처럼&amp;nbsp;&amp;ldquo;법정에서&amp;nbsp;이기기까지&amp;nbsp;수년이&amp;nbsp;걸릴&amp;nbsp;것이고,&amp;nbsp;그&amp;nbsp;사이&amp;nbsp;펜타곤과&amp;nbsp;거래하는&amp;nbsp;포춘&amp;nbsp;500&amp;nbsp;기업의&amp;nbsp;법무팀은&amp;nbsp;하나의&amp;nbsp;질문만&amp;nbsp;할&amp;nbsp;것이다&amp;nbsp;&amp;mdash;&amp;nbsp;Claude를&amp;nbsp;쓸&amp;nbsp;가치가&amp;nbsp;이&amp;nbsp;리스크를&amp;nbsp;감수할&amp;nbsp;만한가?&amp;rdquo; &lt;br /&gt;&lt;br /&gt;오픈AI&amp;nbsp;계약의&amp;nbsp;실질적&amp;nbsp;구속력도&amp;nbsp;검증되지&amp;nbsp;않았다.&amp;nbsp;&amp;ldquo;모든&amp;nbsp;합법적&amp;nbsp;목적&amp;rdquo;을&amp;nbsp;허용하면서&amp;nbsp;레드라인을&amp;nbsp;&amp;ldquo;넣었다&amp;rdquo;고&amp;nbsp;말하는&amp;nbsp;것이&amp;nbsp;법정에서&amp;nbsp;어떤&amp;nbsp;의미를&amp;nbsp;갖는지는&amp;nbsp;아직&amp;nbsp;아무도&amp;nbsp;모른다.&amp;nbsp;앤트로픽이&amp;nbsp;거절한&amp;nbsp;바로&amp;nbsp;그&amp;nbsp;모호성을&amp;nbsp;오픈AI가&amp;nbsp;수용한&amp;nbsp;것일&amp;nbsp;수도&amp;nbsp;있다. &lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;결론 &lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결국&amp;nbsp;이&amp;nbsp;사건이&amp;nbsp;던지는&amp;nbsp;질문은&amp;nbsp;이것이다. &lt;br /&gt;&lt;br /&gt;민주주의&amp;nbsp;국가에서&amp;nbsp;정부가&amp;nbsp;기술&amp;nbsp;기업에&amp;nbsp;&amp;ldquo;우리를&amp;nbsp;그냥&amp;nbsp;믿어라&amp;rdquo;고&amp;nbsp;요구할&amp;nbsp;때,&amp;nbsp;기업이&amp;nbsp;&amp;ldquo;계약서로&amp;nbsp;보여달라&amp;rdquo;고&amp;nbsp;말하는&amp;nbsp;것은&amp;nbsp;불손인가,&amp;nbsp;아니면&amp;nbsp;정상적인&amp;nbsp;견제인가? &lt;br /&gt;&lt;br /&gt;나는&amp;nbsp;후자라고&amp;nbsp;생각한다.&amp;nbsp;그리고&amp;nbsp;앤트로픽이&amp;nbsp;그&amp;nbsp;대가로&amp;nbsp;치르게&amp;nbsp;될&amp;nbsp;비용이&amp;nbsp;크면&amp;nbsp;클수록,&amp;nbsp;이&amp;nbsp;질문의&amp;nbsp;무게는&amp;nbsp;더&amp;nbsp;무거워진다. &lt;br /&gt;&lt;br /&gt;다만&amp;nbsp;진짜&amp;nbsp;필요한&amp;nbsp;후속&amp;nbsp;논의는&amp;nbsp;앤트로픽의&amp;nbsp;용기를&amp;nbsp;칭찬하는&amp;nbsp;데서&amp;nbsp;끝나는&amp;nbsp;게&amp;nbsp;아니라,&amp;nbsp;이런&amp;nbsp;레드라인이&amp;nbsp;한&amp;nbsp;기업의&amp;nbsp;선의에&amp;nbsp;의존하지&amp;nbsp;않고도&amp;nbsp;작동하는&amp;nbsp;제도를&amp;nbsp;어떻게&amp;nbsp;만들&amp;nbsp;것인가에&amp;nbsp;있다.&lt;/p&gt;</description>
      <category>AI</category>
      <category>Antrophic</category>
      <category>ChatGPT</category>
      <category>claude</category>
      <category>OpenAI</category>
      <category>뉴스</category>
      <category>앤트로픽</category>
      <category>최신</category>
      <category>트럼프</category>
      <category>팬타콘</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/146</guid>
      <comments>https://minyoungxi.tistory.com/146#entry146comment</comments>
      <pubDate>Mon, 2 Mar 2026 16:49:19 +0900</pubDate>
    </item>
    <item>
      <title>[Genetic AI] UKB에서 유전자 데이터를 다루기 위한 Potential Issues와 기본적인 Terms를 알아보자</title>
      <link>https://minyoungxi.tistory.com/145</link>
      <description>&lt;h2 data-pm-slice=&quot;1 2 []&quot; data-ke-size=&quot;size26&quot;&gt;1. LD(Linkage Disequilibrium, 연관 불평형) &amp;mdash; 모든 유전 분석의 기저에 있는 개념&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LD는 유전학에서 가장 중요한 개념 중 하나인데, 쉽게 말하면 &lt;b&gt;&quot;게놈에서 가까이 있는 변이들은 서로 독립적이지 않다&quot;&lt;/b&gt;는 현상입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;비유를 들면, 서울 어떤 아파트 단지에서 101동에 사는 사람이 포르쉐를 탈 확률이 높다고 해봅시다. 그런데 102동은 101동 바로 옆이어서, 102동 사람도 포르쉐를 탈 확률이 높게 나옵니다. 102동 자체가 포르쉐와 관련된 게 아니라, 그냥 101동이랑 물리적으로 가까워서 비슷한 인구가 사는 거예요. 게놈에서도 똑같은 일이 일어납니다. 염색체의 특정 구간은 세대를 거쳐도 함께 유전되는 경향이 있어서, 그 구간 안의 변이들은 서로 강하게 연관됩니다. 이렇게 함께 유전되는 변이 묶음을 &lt;b&gt;haplotype&lt;/b&gt;이라고 하고, 그 연관 강도를 수치로 표현한 게 LD입니다(보통 r&amp;sup2; 값으로 표현, 0~1 사이).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이게 왜 문제가 되느냐면, GWAS에서 어떤 SNP와 뇌 해마 부피 사이에 통계적으로 유의미한 연관성을 발견했다고 해서, 그 SNP 자체가 원인이라고 볼 수 없다는 겁니다. 그 SNP와 LD에 있는 다른 변이가 진짜 원인일 수도 있어요. 그래서 GWAS 결과에서 &quot;rs1234567 SNP가 해마 부피와 관련 있다&quot;는 표현 대신 &quot;rs1234567을 포함한 locus가 관련 있다&quot;고 표현하는 게 더 정확합니다. 진짜 원인 변이(causal variant)를 특정하는 과정을 &lt;b&gt;fine-mapping&lt;/b&gt;이라고 하는데, 이 자체가 하나의 분석 단계입니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Locus (복수: Loci)&lt;/b&gt; &amp;mdash; 게놈에서 특정 위치 또는 구역을 가리키는 말입니다. GWAS에서 &quot;locus를 발견했다&quot;는 표현은 특정 염색체 구간에서 유의미한 신호를 발견했다는 뜻으로, 딱 하나의 SNP가 아니라 LD로 묶인 구간 전체를 의미합니다.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;2. Noncoding Rare Variant의 LD Confounding &amp;mdash; Ribeiro 논문이 경고한 것의 실체&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이제 Ribeiro et al.이 왜 경고했는지를 이해할 수 있습니다. Noncoding rare variant 분석에서 특수한 문제가 발생하는 이유는 두 가지 특성이 충돌하기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫째, &lt;b&gt;rare variant는 수가 적어서 개별 검정이 불가능&lt;/b&gt;합니다. MAF 0.1%짜리 변이는 490K명 중 겨우 490명만 가지고 있어요. 이 490명과 나머지를 비교해서 통계적으로 유의한 결과를 얻으려면 효과 크기가 극단적으로 커야 합니다. 그래서 gene 단위로 묶어서 burden test를 하는 겁니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;둘째, &lt;b&gt;noncoding rare variant를 gene에 귀속시키는 게 매우 모호&lt;/b&gt;합니다. 코딩 변이는 &quot;이 변이는 BRCA1 엑손 5번에 있다&quot;고 딱 잘라 말할 수 있어요. 하지만 noncoding 변이, 예를 들어 프로모터나 인핸서에 있는 변이는 여러 유전자의 발현을 동시에 조절할 수 있어서, 어느 유전자에 귀속시킬지가 불명확합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 두 특성이 합쳐지면 무슨 일이 생기느냐면, 어떤 noncoding rare variant가 gene A의 burden score에 포함됐는데 실제로는 그 변이가 gene B와 LD에 있는 더 흔한 common variant에 의해 &quot;끌려다니는&quot; 상황이 발생합니다. 즉, gene A의 noncoding burden test가 유의하게 나왔지만, 사실 그건 gene A 근처에 있는 common variant가 진짜 원인이고 그 common variant와 noncoding rare variant들이 LD로 묶여 있어서 false positive처럼 보이는 겁니다. Ribeiro 논문에서 conditioning analysis(이미 알려진 GWAS common variant 신호를 통계적으로 제거한 후 다시 분석)를 했더니 noncoding rare variant 신호의 상당 부분이 사라진 이유가 바로 이것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이걸 직관적으로 이해하려면 이렇게 생각하면 됩니다. 반에서 키가 큰 학생과 수학 성적이 높은 학생이 겹치는 이유를 분석한다고 할 때, 사실 그 학생들이 모두 특정 과외 학원을 다니고 있다면 &quot;키가 커서 수학을 잘하는 것&quot;이 아니라 &quot;과외 학원(공통 원인)&quot;이 두 변수를 모두 만든 겁니다. LD confounding도 이와 비슷합니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;MAF (Minor Allele Frequency, 소수 대립유전자 빈도)&lt;/b&gt; &amp;mdash; 특정 변이가 인구 집단에서 얼마나 흔한지를 나타내는 수치로, 0~0.5 사이의 값을 가집니다. MAF &amp;lt; 1%이면 rare variant, MAF &amp;ge; 5%이면 common variant로 분류하는 게 일반적입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;SNP (Single Nucleotide Polymorphism, 단일 염기 다형성)&lt;/b&gt; &amp;mdash; 게놈의 특정 위치에서 한 개의 염기(A/T/G/C)가 사람마다 다른 변이로, 인간 게놈에 약 1,000만 개 이상 존재합니다. GWAS에서 분석하는 변이의 가장 기본 단위입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Allele (대립유전자)&lt;/b&gt; &amp;mdash; 같은 유전자 위치(locus)에 존재할 수 있는 서로 다른 염기 버전입니다. 예를 들어 특정 위치에서 어떤 사람은 A, 다른 사람은 G를 가지면 A와 G가 각각 하나의 allele입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Variant (변이)&lt;/b&gt; &amp;mdash; Reference genome(표준 참조 게놈)과 비교해서 달라진 모든 염기 변화를 통칭합니다. SNP는 variant의 한 종류이고, indel, structural variant 등도 모두 variant에 포함됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Exon / Intron&lt;/b&gt; &amp;mdash; 유전자는 단백질로 번역되는 구간(exon)과 번역되지 않고 중간에 끼어 있는 구간(intron)으로 나뉩니다. WES(Whole Exome Sequencing)는 exon만, WGS는 둘 다 포함한 게놈 전체를 읽습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Promoter (프로모터)&lt;/b&gt; &amp;mdash; 유전자 바로 앞에 위치하는 DNA 구간으로, 전사인자(transcription factor)가 여기에 결합해서 해당 유전자의 발현을 켜고 끄는 스위치 역할을 합니다. 유전자와 물리적으로 가까이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Enhancer (인핸서)&lt;/b&gt; &amp;mdash; 유전자 발현을 증폭시키는 조절 구간으로, promoter와 달리 유전자로부터 수십만 염기 이상 떨어진 곳에 있을 수 있습니다. DNA가 3D로 접혀서 유전자 근처로 물리적으로 가까워지면 영향을 발휘합니다.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;3. Population Stratification &amp;mdash; 인구 집단 구조로 인한 교란&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것도 반드시 알아야 하는 개념입니다. 가령 커피를 많이 마시는 사람에서 폐암 발생률이 높다는 결과가 나왔다고 해봅시다. 하지만 실제로는 커피를 많이 마시는 사람들이 흡연자 비율이 높고, 흡연이 폐암의 진짜 원인이었을 수 있습니다. 이처럼 연구 대상 집단이 연구자가 모르는 어떤 변수 때문에 체계적으로 차이가 날 때 발생하는 문제를 교란(confounding)이라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전 연구에서는 이 교란이 &lt;b&gt;인구 집단 간 유전적 차이&lt;/b&gt;에서 옵니다. 예를 들어 유럽 북부 출신 집단은 유전적으로도 다르고 식생활, 환경도 다릅니다. 이 집단에서 어떤 변이의 빈도가 높고 동시에 특정 뇌 특성도 다르다면, 그 변이가 뇌에 직접 영향을 주는 게 아니라 &quot;같은 출신 집단이기 때문&quot;에 두 가지가 함께 나타나는 것일 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 통제하는 표준적인 방법이 &lt;b&gt;Genetic PCA(Principal Component Analysis)&lt;/b&gt;입니다. 수십만 개 SNP 데이터를 PCA 분석해서 개인의 유전적 배경을 수치로 요약한 40개 principal component를 계산한 다음, 이것을 모든 association analysis의 covariates(공변량)로 포함시킵니다. UKB가 이 PC 40개를 이미 제공하기 때문에, UKB 분석에서는 이걸 반드시 포함시켜야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러나 현재 대부분의 WGS + brain imaging 연구가 &lt;b&gt;European ancestry만&lt;/b&gt; 분석하는 이유가 바로 여기 있습니다. 다양한 ancestry를 섞어서 분석하면 population stratification 문제가 더 복잡해지고, UKB 자체가 European ancestry 편향이 크기 때문입니다(458,855명이 Non-Finnish European, 나머지 전체가 약 32,000명). African, Asian ancestry는 수가 너무 적어서 통계적 힘(statistical power)이 부족합니다. 이게 연구 일반화의 심각한 한계이기도 합니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Coding vs. Noncoding variant&lt;/b&gt; &amp;mdash; Coding variant는 exon 안에 있어서 단백질 서열에 직접 영향을 주는 변이이고, noncoding variant는 exon 밖(intron, promoter, enhancer 등)에 있어서 단백질 서열은 바꾸지 않지만 유전자 발현량에 영향을 줄 수 있는 변이입니다.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;4. Multiple Testing 문제 &amp;mdash; p-value가 얼마나 작아야 하는가&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적인 과학 연구에서는 p &amp;lt; 0.05를 유의 기준으로 씁니다. 하지만 유전 연구에서는 이 기준이 전혀 통하지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;WGS에서는 약 1.5억~수억 개의 common variant를 동시에 검정합니다. p &amp;lt; 0.05로 기준을 잡으면 그냥 우연만으로도 750만 개가 &quot;유의미&quot;하게 나옵니다. 그래서 GWAS의 standard 유의 기준은 &lt;b&gt;p &amp;lt; 5&amp;times;10⁻⁸&lt;/b&gt;, 즉 0.00000005입니다. 이걸 &lt;b&gt;genome-wide significance threshold&lt;/b&gt;라고 부르며, 약 100만 번의 독립 검정에 대한 Bonferroni 보정에서 유래했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Brain imaging 연구에서는 이 문제가 더 심해집니다. 수백만 SNP &amp;times; 수천 IDP를 동시에 검정하면, 단순 Bonferroni 기준으로는 threshold가 p &amp;lt; 5&amp;times;10⁻&amp;sup1;&amp;sup1; 이하로 내려갑니다. 이렇게 엄격한 기준을 통과한 신호만이 진짜 신호로 간주됩니다. 반대로 말하면, 이 기준에 미치지 못하면 아무리 생물학적으로 그럴듯해 보여도 &quot;유의미한 발견&quot;으로 주장하기 어렵습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Rare variant collapsing analysis는 여기서 조금 다른 challenge가 있습니다. Common variant GWAS처럼 변이 수는 적지만(수천~수만 개 gene 단위), phenotype 수가 수천 개이고, 또 gene 당 어떤 qualifying variant model(pLoF만 포함할지, missense까지 포함할지, 어떤 MAF cutoff를 쓸지)을 쓰느냐에 따라 검정 수가 폭발적으로 늘어납니다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;5. Winner's Curse와 Replication의 필요성&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Winner's curse는 통계학적으로 흥미로운 현상인데, 유전 연구에서 특히 심각합니다. Discovery 단계에서 just barely 유의미하게 나온 신호는 실제 효과 크기(effect size)를 &lt;b&gt;과대추정&lt;/b&gt;하는 경향이 있습니다. 왜냐하면 진짜 작은 효과를 가진 변이가 운 좋게 유의성 문턱을 넘으려면 우연히 효과가 더 크게 추정된 샘플이어야 하기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것이 실제로 왜 문제가 되냐면, 발견한 유전자 변이의 효과 크기를 바탕으로 임상 적용을 설계하거나 PRS(Polygenic Risk Score)를 만들면, 독립 코호트에서 성능이 크게 떨어집니다. 따라서 제대로 된 연구는 반드시 &lt;b&gt;독립 데이터셋에서 replication&lt;/b&gt;을 해야 합니다. UKB를 discovery로 쓴다면 다른 코호트(FinnGen, deCODE, All of Us)에서 같은 신호가 재현되는지 확인해야 합니다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;6. Heritability와 Missing Heritability &amp;mdash; &quot;유전자가 얼마나 설명하는가&quot;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구를 설계할 때 반드시 알아야 하는 또 다른 개념은 &lt;b&gt;heritability(유전가능성)&lt;/b&gt;입니다. 쌍둥이 연구 등을 통해 추정한 뇌 해마 부피의 heritability는 약 50~80%입니다. 즉, 해마 부피 차이의 절반 이상이 유전적 요인에 의한 것이라는 뜻입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 GWAS에서 발견한 유전자들이 실제로 설명하는 분산(SNP-based heritability, h&amp;sup2;_SNP)은 이보다 훨씬 작습니다. 해마 부피의 경우 SNP heritability가 약 20~30% 수준으로 추정됩니다. 이 차이를 &lt;b&gt;missing heritability&lt;/b&gt;라고 하는데, rare variant, gene-gene interaction, 측정 오류 등 여러 이유로 발생합니다. WGS rare variant 분석이 기대되는 이유 중 하나가 바로 이 missing heritability를 일부 설명할 수 있을 것이라는 기대입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;뇌 영상 phenotype을 선택할 때도 heritability를 미리 확인해야 합니다. h&amp;sup2;_SNP가 낮은 IDP는 유전 분석을 해도 신호를 찾기 어렵고, 설령 찾더라도 해석이 어렵습니다. UKB BIG40 데이터베이스에서 각 IDP의 heritability 추정값을 미리 확인하는 게 연구 설계 첫 단계 중 하나입니다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;7. Collapsing Analysis의 핵심 가정과 함정&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Rare variant collapsing analysis를 설계할 때 가장 중요한 결정이 &lt;b&gt;qualifying variant model&lt;/b&gt;, 즉 어떤 변이를 gene의 burden에 포함시킬 것인가입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가장 보수적인 접근은 &lt;b&gt;pLoF(predicted Loss-of-Function)&lt;/b&gt; 변이만 포함하는 겁니다. 이 변이들은 단백질을 완전히 망가뜨리는 변이(stop-gain, frameshift, splice site 변이)로, 기능 손실이 거의 확실합니다. 하지만 수가 너무 적어서 통계적 힘이 약합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기에 &lt;b&gt;damaging missense variant&lt;/b&gt;(CADD score, AlphaMissense 같은 functional prediction tool이 damaging하다고 예측한 변이)를 추가하면 수는 늘어나지만, functional prediction 자체의 정확도 문제가 들어옵니다. 현재 가장 좋은 tool인 AlphaMissense도 완벽하지 않으며, 이를 포함시키면 false positive가 늘어날 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Noncoding variant까지 포함하면 이 문제가 극단적으로 커집니다. 어떤 noncoding 변이가 정말 유전자 발현에 영향을 주는지를 판별하는 게 현재 computational biology의 주요 과제 중 하나이고, 아직 완전히 해결되지 않았습니다. 이것이 Ribeiro 논문의 경고가 중요한 이유입니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;pLoF (predicted Loss-of-Function) variant&lt;/b&gt; &amp;mdash; 단백질을 완전히 망가뜨린다고 예측되는 변이로, stop-gain(중간에 단백질 합성을 멈추게 함), frameshift(읽기 틀을 바꿔 의미 없는 단백질 생성), splice site variant(mRNA 접합 오류 유발)가 여기에 속합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Missense variant&lt;/b&gt; &amp;mdash; 코딩 영역에서 염기 하나가 바뀌어서 단백질의 아미노산이 하나 달라지는 변이입니다. 기능에 영향이 있을 수도 없을 수도 있어서, CADD나 AlphaMissense 같은 computational tool로 damaging 여부를 예측합니다.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;8. UKB 특유의 편향 &amp;mdash; Healthy Volunteer Bias&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;마지막으로 UKB 자체의 구조적 한계를 알아야 합니다. UKB 참가자는 2006~2010년에 자발적으로 연구에 참여한 사람들입니다. 영국 일반 인구 대비 흡연율이 낮고, 교육 수준이 높고, 사회경제적 지위가 높으며, 전반적으로 더 건강한 사람들이 과대 대표되어 있습니다. 이를 &lt;b&gt;Healthy Volunteer Bias&lt;/b&gt;라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;뇌 영상 데이터는 이 문제가 더 심합니다. 뇌 MRI는 특히 2014년 이후에 시작됐는데, 그때까지 살아서 탈락하지 않은 건강한 참가자들만 촬영될 수 있었습니다. 즉, stroke처럼 심각한 질환으로 사망하거나 연구 참여를 중단한 사람들은 MRI 데이터가 없습니다. 뇌졸중 같은 심각한 질환의 genetics를 연구하려고 할 때 이 점이 특히 문제가 됩니다. 실제 stroke 환자에서 brain imaging을 가진 사람은 극히 소수이고, 대부분의 뇌 MRI는 stroke 발생 전 건강했을 때 찍힌 겁니다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 여덟 가지 개념을 한 줄로 요약하면, &lt;b&gt;유전 데이터는 서로 독립적이지 않고(LD), 인구 구조로 교란되며(population stratification), 검정 수가 너무 많고(multiple testing), 효과가 과대추정되며(winner's curse), 분석 대상이 이미 건강한 사람들에게 편향되어(healthy volunteer bias) 있습니다.&lt;/b&gt; 이 다섯 가지 문제를 어떻게 통제하느냐가 연구 설계의 핵심입니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Synonymous (synonymous) variant&lt;/b&gt; &amp;mdash; 코딩 영역에서 염기가 바뀌었지만 아미노산은 바뀌지 않는 변이로, 단백질 기능에 영향이 없다고 보통 가정합니다. Collapsing analysis에서 제외하는 경우가 많습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Burden score&lt;/b&gt; &amp;mdash; Rare variant collapsing analysis에서 사용하는 개인당 점수로, 특정 유전자 안에 damaging rare variant가 몇 개 있는지(또는 하나라도 있으면 1, 없으면 0)를 나타냅니다. 이 점수를 phenotype과 연관시켜서 유전자 수준의 분석을 수행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;eQTL (expression Quantitative Trait Locus)&lt;/b&gt; &amp;mdash; 특정 유전 변이가 어떤 유전자의 mRNA 발현량과 연관되어 있을 때, 그 변이를 eQTL이라고 합니다. GWAS에서 발견한 변이가 eQTL 데이터베이스에 등재되어 있으면 &quot;이 변이가 유전자 발현을 조절함으로써 표현형에 영향을 준다&quot;는 기전 해석을 뒷받침하는 증거가 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PRS (Polygenic Risk Score, 다유전자 위험 점수)&lt;/b&gt; &amp;mdash; GWAS에서 발견된 수천~수백만 개 변이의 효과 크기를 개인 게놈에 가중합산해서 만든 질병 위험 점수입니다. 개별 변이는 효과가 작아도, 합산하면 집단 내 위험도 분포를 어느 정도 예측할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Structural Variant (SV)&lt;/b&gt; &amp;mdash; 단일 염기 변화가 아니라, 염색체 구간이 삭제되거나(deletion), 복제되거나(duplication), 뒤집히거나(inversion), 다른 염색체로 이동(translocation)하는 대규모 변이입니다. WGS에서만 안정적으로 탐지 가능하며, CNV(Copy Number Variant)가 SV의 대표적인 유형입니다.&lt;/p&gt;
&lt;/blockquote&gt;</description>
      <category>Medical</category>
      <category>AI</category>
      <category>BioAI</category>
      <category>bioinformatics</category>
      <category>UKB</category>
      <category>생명공학</category>
      <category>유전AI</category>
      <category>유전공학</category>
      <category>유전인공지능</category>
      <category>유전학</category>
      <category>인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/145</guid>
      <comments>https://minyoungxi.tistory.com/145#entry145comment</comments>
      <pubDate>Mon, 23 Feb 2026 20:39:28 +0900</pubDate>
    </item>
    <item>
      <title>[Wellness Life] 커피는 정말로 우리의 몸에 좋지 않을까요? 연구와 논문들을 함께 봅시다!</title>
      <link>https://minyoungxi.tistory.com/144</link>
      <description>&lt;h1 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피가 정말 몸에 안좋을까?&lt;/h1&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cEQYMS/btsN03B8Ipb/V4uYfkqxn0gBiDUnjoU5T1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cEQYMS/btsN03B8Ipb/V4uYfkqxn0gBiDUnjoU5T1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cEQYMS/btsN03B8Ipb/V4uYfkqxn0gBiDUnjoU5T1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcEQYMS%2FbtsN03B8Ipb%2FV4uYfkqxn0gBiDUnjoU5T1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;684&quot; height=&quot;456&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size18&quot;&gt;&lt;span&gt;커피는 몸에 좋지 않을까요?&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size18&quot;&gt;&lt;span&gt;대부분의 사람들은 그렇게 생각합니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;커피에는 곰팡이 독소가 있어서 먹으면 몸에 좋지 않다는 말이 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;커피에 있는 독소 중에&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;오크라톡신A, 아플라톡신B&lt;/b&gt;1이 있을 수 있다고 얘기합니다. 이건 맞는 말입니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;&lt;b&gt;'아플라톡신'&lt;/b&gt;의 경우 발암성이 있는 독소 중 하나이고 실제로 규제가 이루어지고 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;생물학적으로 만약에 커피가 정말 몸에 해롭다고 하면, 굉장히 대규모의 인구집단에 대한 연구에서 커피를 많이 마시는&amp;nbsp;사람의 사망률 증가 혹은 수명 단축, 여러가지 질병 발생과 같은 것들이 연관이 되어 있어야 할 것입니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;의심이&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;된다면&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;이런 정황들을 바탕으로 연구 논문들을 찾아보면 됩니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;&lt;span&gt;Reference1.&amp;nbsp;&lt;/span&gt;Coffee consumption and mortality from all causes, cardiovascular disease, and cancer: a dose-response meta-analysis&lt;/b&gt;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;705&quot; data-origin-height=&quot;687&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bAjty9/btsN2ZLfpCL/D0EW5vhrNfbrTCIvWr6X31/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bAjty9/btsN2ZLfpCL/D0EW5vhrNfbrTCIvWr6X31/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bAjty9/btsN2ZLfpCL/D0EW5vhrNfbrTCIvWr6X31/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbAjty9%2FbtsN2ZLfpCL%2FD0EW5vhrNfbrTCIvWr6X31%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;705&quot; height=&quot;687&quot; data-origin-width=&quot;705&quot; data-origin-height=&quot;687&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;2014년에 출판된 논문입니다. 해당 논문은 '커피를 하루에 몇 잔 먹느냐와 전체 사망 발생을 비교'한 연구를 다루고 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;약 100만명의 관찰군에서 약 12만건의 사망건수를 가지고 분석한 논문입니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;결론부터 말씀드리면 이 연구에서 커피를 마시는 것은 전체 사망의 감소와 심혈관계 사망의 감소와 연관이 되어있었고, p-value는 당연히 0.001 미만으로 나오고 있습니다.(p-value란 유의 확률을 뜻하며, 0.05 미만일 경우 통계적으로 유의하다고 간주합니다.)&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;973&quot; data-origin-height=&quot;325&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bKiFUv/btsN1pxPL4e/LyV2UIbTck8pf3pC2oHmxk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bKiFUv/btsN1pxPL4e/LyV2UIbTck8pf3pC2oHmxk/img.png&quot; data-alt=&quot;(왼쪽) 전체 사망 (오른쪽) 심혈관 사망&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bKiFUv/btsN1pxPL4e/LyV2UIbTck8pf3pC2oHmxk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbKiFUv%2FbtsN1pxPL4e%2FLyV2UIbTck8pf3pC2oHmxk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;973&quot; height=&quot;325&quot; data-origin-width=&quot;973&quot; data-origin-height=&quot;325&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;(왼쪽) 전체 사망 (오른쪽) 심혈관 사망&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;이 연구에서 봤을 때 가장 사망률을 낮출 수 있는 정도는&lt;b&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;하루에 4잔 정도의 커피를 마시는 것&lt;/b&gt;이고,&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;심혈관계 사망 확률을 낮춰주는 것은 하루에 3잔&lt;/b&gt;으로 분석이 되고 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;604&quot; data-origin-height=&quot;365&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bw8za0/btsN2ZR1wto/SvkMwHpO29tjE26KM1XVp1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bw8za0/btsN2ZR1wto/SvkMwHpO29tjE26KM1XVp1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bw8za0/btsN2ZR1wto/SvkMwHpO29tjE26KM1XVp1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbw8za0%2FbtsN2ZR1wto%2FSvkMwHpO29tjE26KM1XVp1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;604&quot; height=&quot;365&quot; data-origin-width=&quot;604&quot; data-origin-height=&quot;365&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;그리고 커피 소비는 '암 사망'과 통계적으로 유의미한 상관성이 없다고 보고됩니다.&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;전체 사망, 심혈관 사망 그래프를 보면 커피를 하루에 2잔 정도 마시는 사람들은 전체 사망, 심혈관 사망률이 감소했다는 점을 볼 수 있습니다. 하지만 암 사망의 경우에는 0~4잔의 커피에서 의미있는 트렌드가 발견되지 않고, 6잔부터 살짝 올라가는 모습을 볼 수 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;&lt;span&gt;Reference2.&amp;nbsp;&lt;/span&gt;&lt;/b&gt;Coffee consumption and health: umbrella review of meta-analyses of multiple health outcomes&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;695&quot; data-origin-height=&quot;352&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/lzLY9/btsN1r3vHU8/mlucysCwjKavaQegnzTUtk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/lzLY9/btsN1r3vHU8/mlucysCwjKavaQegnzTUtk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/lzLY9/btsN1r3vHU8/mlucysCwjKavaQegnzTUtk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FlzLY9%2FbtsN1r3vHU8%2FmlucysCwjKavaQegnzTUtk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;695&quot; height=&quot;352&quot; data-origin-width=&quot;695&quot; data-origin-height=&quot;352&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;2017년 BMJ에 출판된 Umbrella review paper &lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;논문입니다.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;496&quot; data-origin-height=&quot;723&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/o3j6K/btsN2qP55RJ/KeXQglHkf6ok8hSRTKyvnK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/o3j6K/btsN2qP55RJ/KeXQglHkf6ok8hSRTKyvnK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/o3j6K/btsN2qP55RJ/KeXQglHkf6ok8hSRTKyvnK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fo3j6K%2FbtsN2qP55RJ%2FKeXQglHkf6ok8hSRTKyvnK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;496&quot; height=&quot;723&quot; data-origin-width=&quot;496&quot; data-origin-height=&quot;723&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;위 표를 보면 커피를 먹으면 해로운 10개의 질환과 커피를 먹으면 좋은 10개의 질환을 분류해서 기재했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;우선&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;'커피를 먹으면 해로운 10개의&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환&lt;/b&gt;'을&lt;span&gt;&amp;nbsp;&lt;/span&gt;살펴볼게요.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;u&gt;소아 백혈병, 폐암, 유산, 류머티스형 관절염, 저체중 아이 출산, 림프종, 후두암, 첫 번째와 세 번째 임신기에서의 조산, 구강의 구조적 이형성&lt;/u&gt;(순서대로) 이렇게&lt;span&gt;&amp;nbsp;&lt;/span&gt;리스트업&lt;span&gt;&amp;nbsp;&lt;/span&gt;되어있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;다음으로 '커피를 먹으면 좋은 10개의&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환'에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대해서 살펴보면요&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;u&gt;제2형&lt;span&gt;&amp;nbsp;&lt;/span&gt;당뇨병,&lt;span&gt;&amp;nbsp;&lt;/span&gt;구강암,&lt;span&gt;&amp;nbsp;&lt;/span&gt;간경변,&lt;span&gt;&amp;nbsp;&lt;/span&gt;신석,&lt;span&gt;&amp;nbsp;&lt;/span&gt;파킨슨병,&lt;span&gt;&amp;nbsp;&lt;/span&gt;백혈병,&lt;span&gt;&amp;nbsp;&lt;/span&gt;심근경색&lt;span&gt;&amp;nbsp;&lt;/span&gt;후&lt;span&gt;&amp;nbsp;&lt;/span&gt;사방,&lt;span&gt;&amp;nbsp;&lt;/span&gt;통풍,&lt;span&gt;&amp;nbsp;&lt;/span&gt;간암,&lt;span&gt;&amp;nbsp;&lt;/span&gt;만성&lt;span&gt;&amp;nbsp;&lt;/span&gt;간&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/u&gt;등이&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;것들을&lt;span&gt;&amp;nbsp;&lt;/span&gt;종합해보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;특히&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않은&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환들을 살펴보겠습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;첫&lt;span&gt;&amp;nbsp;&lt;/span&gt;번째,&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;폐암과 후두암&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;개별&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구들을&lt;span&gt;&amp;nbsp;&lt;/span&gt;자세하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;살펴보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;결국에는&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시면서&lt;span&gt;&amp;nbsp;&lt;/span&gt;줄담배를&lt;span&gt;&amp;nbsp;&lt;/span&gt;피우는&lt;span&gt;&amp;nbsp;&lt;/span&gt;사람이&lt;span&gt;&amp;nbsp;&lt;/span&gt;많다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구들이&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구들에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;담배를&lt;span&gt;&amp;nbsp;&lt;/span&gt;제대로&lt;span&gt;&amp;nbsp;&lt;/span&gt;보정하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;된다면&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피와&lt;span&gt;&amp;nbsp;&lt;/span&gt;폐암에서의&lt;span&gt;&amp;nbsp;&lt;/span&gt;통계적&lt;span&gt;&amp;nbsp;&lt;/span&gt;상관성은&lt;span&gt;&amp;nbsp;&lt;/span&gt;소실되게&lt;span&gt;&amp;nbsp;&lt;/span&gt;된다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;내용입니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;그리고&lt;span&gt;&amp;nbsp;&lt;/span&gt;비흡연자를&lt;span&gt;&amp;nbsp;&lt;/span&gt;따로&lt;span&gt;&amp;nbsp;&lt;/span&gt;떼어서&lt;span&gt;&amp;nbsp;&lt;/span&gt;보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;많이&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것과&lt;span&gt;&amp;nbsp;&lt;/span&gt;폐암의&lt;span&gt;&amp;nbsp;&lt;/span&gt;증가는&lt;span&gt;&amp;nbsp;&lt;/span&gt;상관이&lt;span&gt;&amp;nbsp;&lt;/span&gt;없다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;결론이&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;.&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;754&quot; data-origin-height=&quot;592&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/buorac/btsN2pDE8Hg/3Ng0JnIsZCW4gba1azdQu1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/buorac/btsN2pDE8Hg/3Ng0JnIsZCW4gba1azdQu1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/buorac/btsN2pDE8Hg/3Ng0JnIsZCW4gba1azdQu1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbuorac%2FbtsN2pDE8Hg%2F3Ng0JnIsZCW4gba1azdQu1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;754&quot; height=&quot;592&quot; data-origin-width=&quot;754&quot; data-origin-height=&quot;592&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;두 번째로는 어렸을 때 혹은 태어나기 전에 문제가 커피와 좀 관련이 있죠.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;임신한 엄마가 커피를 너무 많이 마시게 되면 저체중이나 유산 등 이런 것들이 생길 수 있기 때문에 엄마가 되기 위한 기간에는 커피를 자제하면 좋을 것 같다는 생각이 듭니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;실제로 우리나라 식약처에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;권고량은&lt;span&gt;&amp;nbsp;&lt;/span&gt;카페인&lt;span&gt;&amp;nbsp;&lt;/span&gt;300mg,&lt;span&gt;&amp;nbsp;&lt;/span&gt;즉&lt;span&gt;&amp;nbsp;&lt;/span&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피&lt;span&gt;&amp;nbsp;&lt;/span&gt;3잔을&lt;span&gt;&amp;nbsp;&lt;/span&gt;권고하고&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;&lt;span&gt;Reference3.&amp;nbsp;&lt;/span&gt;&lt;/b&gt;Caffeinated Coffee Consumption and Health Outcomes in the US Population: A Dose&amp;ndash;Response Meta-Analysis and Estimation of Disease Cases and Deaths Avoided(2021)&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;996&quot; data-origin-height=&quot;771&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/scwZj/btsN1BLAvGJ/mT92m7sVT5e6vgmMSucDi0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/scwZj/btsN1BLAvGJ/mT92m7sVT5e6vgmMSucDi0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/scwZj/btsN1BLAvGJ/mT92m7sVT5e6vgmMSucDi0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FscwZj%2FbtsN1BLAvGJ%2FmT92m7sVT5e6vgmMSucDi0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;996&quot; height=&quot;771&quot; data-origin-width=&quot;996&quot; data-origin-height=&quot;771&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;966&quot; data-origin-height=&quot;646&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dXFgnK/btsN1TyqWRo/WjMjjFhNhvZbnZK32if3yK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dXFgnK/btsN1TyqWRo/WjMjjFhNhvZbnZK32if3yK/img.png&quot; data-alt=&quot;(왼) 심혈관 질환 + 사망 (오) 2형 당뇨병&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dXFgnK/btsN1TyqWRo/WjMjjFhNhvZbnZK32if3yK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdXFgnK%2FbtsN1TyqWRo%2FWjMjjFhNhvZbnZK32if3yK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;966&quot; height=&quot;646&quot; data-origin-width=&quot;966&quot; data-origin-height=&quot;646&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;(왼) 심혈관 질환 + 사망 (오) 2형 당뇨병&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;해당&lt;span&gt;&amp;nbsp;&lt;/span&gt;논문은&lt;span&gt;&amp;nbsp;&lt;/span&gt;2021년에&lt;span&gt;&amp;nbsp;&lt;/span&gt;출판된&lt;span&gt;&amp;nbsp;&lt;/span&gt;논문으로,&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;몇&lt;span&gt;&amp;nbsp;&lt;/span&gt;잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시냐와&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환들과의&lt;span&gt;&amp;nbsp;&lt;/span&gt;관계에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대해 메타분석을 진행했습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;심혈관&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환과&lt;span&gt;&amp;nbsp;&lt;/span&gt;사망에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;그래프를&lt;span&gt;&amp;nbsp;&lt;/span&gt;보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;4잔까지는&lt;span&gt;&amp;nbsp;&lt;/span&gt;줄어드는&lt;span&gt;&amp;nbsp;&lt;/span&gt;트렌드가&lt;span&gt;&amp;nbsp;&lt;/span&gt;관측이&lt;span&gt;&amp;nbsp;&lt;/span&gt;되다가&lt;span&gt;&amp;nbsp;&lt;/span&gt;5잔부터&lt;span&gt;&amp;nbsp;&lt;/span&gt;플랫한&lt;span&gt;&amp;nbsp;&lt;/span&gt;움직임이&lt;span&gt;&amp;nbsp;&lt;/span&gt;관측됩니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;가장&lt;span&gt;&amp;nbsp;&lt;/span&gt;우리에게&lt;span&gt;&amp;nbsp;&lt;/span&gt;유의미하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;도움이&lt;span&gt;&amp;nbsp;&lt;/span&gt;되는&lt;span&gt;&amp;nbsp;&lt;/span&gt;지점은&lt;span&gt;&amp;nbsp;&lt;/span&gt;3~4잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;정도인&lt;span&gt;&amp;nbsp;&lt;/span&gt;것 같습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;2형&lt;span&gt;&amp;nbsp;&lt;/span&gt;당뇨병의&lt;span&gt;&amp;nbsp;&lt;/span&gt;경우&lt;span&gt;&amp;nbsp;&lt;/span&gt;오히려&lt;span&gt;&amp;nbsp;&lt;/span&gt;많이&lt;span&gt;&amp;nbsp;&lt;/span&gt;마실수록&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;위험이&lt;span&gt;&amp;nbsp;&lt;/span&gt;줄어드는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것을&lt;span&gt;&amp;nbsp;&lt;/span&gt;관측할&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;972&quot; data-origin-height=&quot;682&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dxkIRj/btsN1gukuHn/BLhdBEUrnAxDKGRbSkkNik/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dxkIRj/btsN1gukuHn/BLhdBEUrnAxDKGRbSkkNik/img.png&quot; data-alt=&quot;(A) 간세포암 (B) 자궁내막암 (C) 흑색종 (D) 흑색종 외의 피부암&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dxkIRj/btsN1gukuHn/BLhdBEUrnAxDKGRbSkkNik/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdxkIRj%2FbtsN1gukuHn%2FBLhdBEUrnAxDKGRbSkkNik%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;972&quot; height=&quot;682&quot; data-origin-width=&quot;972&quot; data-origin-height=&quot;682&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;(A) 간세포암 (B) 자궁내막암 (C) 흑색종 (D) 흑색종 외의 피부암&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;간세포암의&lt;span&gt;&amp;nbsp;&lt;/span&gt;경우에도&lt;span&gt;&amp;nbsp;&lt;/span&gt;많이&lt;span&gt;&amp;nbsp;&lt;/span&gt;마실수록&lt;span&gt;&amp;nbsp;&lt;/span&gt;예방&lt;span&gt;&amp;nbsp;&lt;/span&gt;효과가&lt;span&gt;&amp;nbsp;&lt;/span&gt;있다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것을&lt;span&gt;&amp;nbsp;&lt;/span&gt;확인할&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있고&lt;span&gt;&amp;nbsp;&lt;/span&gt;자궁내막암도&lt;span&gt;&amp;nbsp;&lt;/span&gt;마찬가지입니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;흑색종과&lt;span&gt;&amp;nbsp;&lt;/span&gt;흑생종&lt;span&gt;&amp;nbsp;&lt;/span&gt;외의&lt;span&gt;&amp;nbsp;&lt;/span&gt;피부암도&lt;span&gt;&amp;nbsp;&lt;/span&gt;아주&lt;span&gt;&amp;nbsp;&lt;/span&gt;살짝&lt;span&gt;&amp;nbsp;&lt;/span&gt;감소하는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것을&lt;span&gt;&amp;nbsp;&lt;/span&gt;볼&lt;span&gt;&amp;nbsp;&lt;/span&gt;수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;종합해보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피는&lt;span&gt;&amp;nbsp;&lt;/span&gt;대부분의&lt;span&gt;&amp;nbsp;&lt;/span&gt;질환과&lt;span&gt;&amp;nbsp;&lt;/span&gt;상관성,&lt;span&gt;&amp;nbsp;&lt;/span&gt;인과성이&lt;span&gt;&amp;nbsp;&lt;/span&gt;없다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;결론을&lt;span&gt;&amp;nbsp;&lt;/span&gt;내릴&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&lt;/p&gt;
&lt;h1 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피와 수면&lt;/h1&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/CUuVi/btsN1A60ZqC/NdRDCqzXK84UClJpKYYpr0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/CUuVi/btsN1A60ZqC/NdRDCqzXK84UClJpKYYpr0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/CUuVi/btsN1A60ZqC/NdRDCqzXK84UClJpKYYpr0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FCUuVi%2FbtsN1A60ZqC%2FNdRDCqzXK84UClJpKYYpr0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;579&quot; height=&quot;386&quot; data-origin-width=&quot;1536&quot; data-origin-height=&quot;1024&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;커피의&lt;span&gt;&amp;nbsp;&lt;/span&gt;위험성이라고&lt;span&gt;&amp;nbsp;&lt;/span&gt;하면&lt;span&gt;&amp;nbsp;&lt;/span&gt;조금&lt;span&gt;&amp;nbsp;&lt;/span&gt;다른&lt;span&gt;&amp;nbsp;&lt;/span&gt;면에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;찾아볼&lt;span&gt;&amp;nbsp;&lt;/span&gt;수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;커피가&lt;span&gt;&amp;nbsp;&lt;/span&gt;수면의&lt;span&gt;&amp;nbsp;&lt;/span&gt;질을&lt;span&gt;&amp;nbsp;&lt;/span&gt;떨어뜨릴&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있는&lt;span&gt;&amp;nbsp;&lt;/span&gt;가능성의&lt;span&gt;&amp;nbsp;&lt;/span&gt;측면에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;볼&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있죠.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;&lt;span&gt;Reference4.&amp;nbsp;&lt;/span&gt;&lt;/b&gt;Coffee, caffeine, and sleep: A systematic review of epidemiological studies and randomized controlled trials&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;675&quot; data-origin-height=&quot;489&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c7R9kb/btsN198RRJd/dwGeKCxfLtoSH1vpPCmXp1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c7R9kb/btsN198RRJd/dwGeKCxfLtoSH1vpPCmXp1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c7R9kb/btsN198RRJd/dwGeKCxfLtoSH1vpPCmXp1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc7R9kb%2FbtsN198RRJd%2FdwGeKCxfLtoSH1vpPCmXp1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;675&quot; height=&quot;489&quot; data-origin-width=&quot;675&quot; data-origin-height=&quot;489&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;해당&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;논문은&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;약&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;2700명을&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;대상으로&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;1~4잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;정도의&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;마시는&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;사람이&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;끊은&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;사람&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;혹은&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;5잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;이상&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;마시는&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;사람보다&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;수면의&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;질이&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;높다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;연구&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;결과를&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;발표했습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;653&quot; data-origin-height=&quot;535&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bgtUYe/btsN0NML9yW/FgOUkcW8ze89c5rBEi9UBk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bgtUYe/btsN0NML9yW/FgOUkcW8ze89c5rBEi9UBk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bgtUYe/btsN0NML9yW/FgOUkcW8ze89c5rBEi9UBk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbgtUYe%2FbtsN0NML9yW%2FFgOUkcW8ze89c5rBEi9UBk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;653&quot; height=&quot;535&quot; data-origin-width=&quot;653&quot; data-origin-height=&quot;535&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;또한&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;8잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;이상&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;마시면&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;수면이&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;평균적으로&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;40분&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;&amp;nbsp;줄어든다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;점도&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;관찰되었습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;736&quot; data-origin-height=&quot;436&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/2niYl/btsN09B6X47/wqROVwkpSGjziux8Ce9gmK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/2niYl/btsN09B6X47/wqROVwkpSGjziux8Ce9gmK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/2niYl/btsN09B6X47/wqROVwkpSGjziux8Ce9gmK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F2niYl%2FbtsN09B6X47%2FwqROVwkpSGjziux8Ce9gmK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;736&quot; height=&quot;436&quot; data-origin-width=&quot;736&quot; data-origin-height=&quot;436&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;하지만&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피의&lt;span&gt;&amp;nbsp;&lt;/span&gt;수면에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;효과는&lt;span&gt;&amp;nbsp;&lt;/span&gt;생각보다&lt;span&gt;&amp;nbsp;&lt;/span&gt;오래갈&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;한&lt;span&gt;&amp;nbsp;&lt;/span&gt;그룹은&lt;span&gt;&amp;nbsp;&lt;/span&gt;2주간&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;끊었고,&lt;span&gt;&amp;nbsp;&lt;/span&gt;다른&lt;span&gt;&amp;nbsp;&lt;/span&gt;그룹은&lt;span&gt;&amp;nbsp;&lt;/span&gt;일상&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;끊지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않고&lt;span&gt;&amp;nbsp;&lt;/span&gt;아침&lt;span&gt;&amp;nbsp;&lt;/span&gt;6시에&lt;span&gt;&amp;nbsp;&lt;/span&gt;2잔의&lt;span&gt;&amp;nbsp;&lt;/span&gt;더블&lt;span&gt;&amp;nbsp;&lt;/span&gt;에스프레소를&lt;span&gt;&amp;nbsp;&lt;/span&gt;복용하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;하였습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;이&lt;span&gt;&amp;nbsp;&lt;/span&gt;때&lt;span&gt;&amp;nbsp;&lt;/span&gt;일상&lt;span&gt;&amp;nbsp;&lt;/span&gt;생활에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;끊지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않은&lt;span&gt;&amp;nbsp;&lt;/span&gt;그룹에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;카페인을&lt;span&gt;&amp;nbsp;&lt;/span&gt;추가적으로&lt;span&gt;&amp;nbsp;&lt;/span&gt;섭취하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;할&lt;span&gt;&amp;nbsp;&lt;/span&gt;경우&lt;span&gt;&amp;nbsp;&lt;/span&gt;저녁에&lt;span&gt;&amp;nbsp;&lt;/span&gt;자야할&lt;span&gt;&amp;nbsp;&lt;/span&gt;시간에&lt;span&gt;&amp;nbsp;&lt;/span&gt;침에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;상당량의&lt;span&gt;&amp;nbsp;&lt;/span&gt;카페인이 검출되었습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;반면,&lt;span&gt;&amp;nbsp;&lt;/span&gt;2주간&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;끊은&lt;span&gt;&amp;nbsp;&lt;/span&gt;그룹은&lt;span&gt;&amp;nbsp;&lt;/span&gt;밤에&lt;span&gt;&amp;nbsp;&lt;/span&gt;카페인&lt;span&gt;&amp;nbsp;&lt;/span&gt;농도가&lt;span&gt;&amp;nbsp;&lt;/span&gt;바닥까지&lt;span&gt;&amp;nbsp;&lt;/span&gt;떨어진다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;점을&lt;span&gt;&amp;nbsp;&lt;/span&gt;볼&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;그러면&lt;span&gt;&amp;nbsp;&lt;/span&gt;결론적으로&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;1~2잔&lt;span&gt;&amp;nbsp;&lt;/span&gt;정도의&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시고&lt;span&gt;&amp;nbsp;&lt;/span&gt;가능한&lt;span&gt;&amp;nbsp;&lt;/span&gt;한&lt;span&gt;&amp;nbsp;&lt;/span&gt;이른&lt;span&gt;&amp;nbsp;&lt;/span&gt;아침에&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시는게&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않을까&lt;span&gt;&amp;nbsp;&lt;/span&gt;생각이듭니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h1 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;모닝커피?&lt;/h1&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;요즘에는&lt;span&gt;&amp;nbsp;&lt;/span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;기사들이&lt;span&gt;&amp;nbsp;&lt;/span&gt;나옵니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;837&quot; data-origin-height=&quot;1301&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/tYST8/btsN22HXboO/nSk6MnYNdgESrFmMMSnDB0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/tYST8/btsN22HXboO/nSk6MnYNdgESrFmMMSnDB0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/tYST8/btsN22HXboO/nSk6MnYNdgESrFmMMSnDB0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FtYST8%2FbtsN22HXboO%2FnSk6MnYNdgESrFmMMSnDB0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;837&quot; height=&quot;1301&quot; data-origin-width=&quot;837&quot; data-origin-height=&quot;1301&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;아침에&lt;span&gt;&amp;nbsp;&lt;/span&gt;일어나자마자&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;마시면&lt;span&gt;&amp;nbsp;&lt;/span&gt;코티솔에&lt;span&gt;&amp;nbsp;&lt;/span&gt;영향을&lt;span&gt;&amp;nbsp;&lt;/span&gt;주기때문에&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않겠다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;말이 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;사실&lt;span&gt;&amp;nbsp;&lt;/span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구들은&lt;span&gt;&amp;nbsp;&lt;/span&gt;너무&lt;span&gt;&amp;nbsp;&lt;/span&gt;소규모라서&lt;span&gt;&amp;nbsp;&lt;/span&gt;나의&lt;span&gt;&amp;nbsp;&lt;/span&gt;코티솔&lt;span&gt;&amp;nbsp;&lt;/span&gt;시스템(시상하부-뇌하수체-부신 축을)을&lt;span&gt;&amp;nbsp;&lt;/span&gt;망가뜨리냐&lt;span&gt;&amp;nbsp;&lt;/span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;것들은&lt;span&gt;&amp;nbsp;&lt;/span&gt;증명이&lt;span&gt;&amp;nbsp;&lt;/span&gt;되지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않았습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;과한&lt;span&gt;&amp;nbsp;&lt;/span&gt;기사죠.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;물론&lt;span&gt;&amp;nbsp;&lt;/span&gt;카페인&lt;span&gt;&amp;nbsp;&lt;/span&gt;섭취에&lt;span&gt;&amp;nbsp;&lt;/span&gt;따른&lt;span&gt;&amp;nbsp;&lt;/span&gt;변화는&lt;span&gt;&amp;nbsp;&lt;/span&gt;개인마다&lt;span&gt;&amp;nbsp;&lt;/span&gt;다릅니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h1 style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot;&gt;결론&amp;nbsp;&lt;/h1&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;실제로&lt;span&gt;&amp;nbsp;&lt;/span&gt;'오크라톡신'과&lt;span&gt;&amp;nbsp;&lt;/span&gt;'아플라톡신'에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;공포가&lt;span&gt;&amp;nbsp;&lt;/span&gt;있어서&lt;span&gt;&amp;nbsp;&lt;/span&gt;서울시에서는&lt;span&gt;&amp;nbsp;&lt;/span&gt;서울시&lt;span&gt;&amp;nbsp;&lt;/span&gt;보건환경연구원을&lt;span&gt;&amp;nbsp;&lt;/span&gt;중심으로&lt;span&gt;&amp;nbsp;&lt;/span&gt;25개&lt;span&gt;&amp;nbsp;&lt;/span&gt;자치구와&lt;span&gt;&amp;nbsp;&lt;/span&gt;함께&lt;span&gt;&amp;nbsp;&lt;/span&gt;서울&lt;span&gt;&amp;nbsp;&lt;/span&gt;전역의&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피&lt;span&gt;&amp;nbsp;&lt;/span&gt;제조,&lt;span&gt;&amp;nbsp;&lt;/span&gt;가공&lt;span&gt;&amp;nbsp;&lt;/span&gt;업소에서&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피&lt;span&gt;&amp;nbsp;&lt;/span&gt;원두&lt;span&gt;&amp;nbsp;&lt;/span&gt;59건을&lt;span&gt;&amp;nbsp;&lt;/span&gt;수거해서&lt;span&gt;&amp;nbsp;&lt;/span&gt;분석했고&lt;span&gt;&amp;nbsp;&lt;/span&gt;실제로&lt;span&gt;&amp;nbsp;&lt;/span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;곰팡이&lt;b&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;독소는&lt;span&gt;&amp;nbsp;&lt;/span&gt;불검출되었으니&lt;span&gt;&amp;nbsp;&lt;/span&gt;우리에게&lt;span&gt;&amp;nbsp;&lt;/span&gt;해롭지 않습니다&lt;/b&gt;.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;사람들은&lt;span&gt;&amp;nbsp;&lt;/span&gt;전체적인&lt;span&gt;&amp;nbsp;&lt;/span&gt;숫자와&lt;span&gt;&amp;nbsp;&lt;/span&gt;조망에는&lt;span&gt;&amp;nbsp;&lt;/span&gt;둔감한&lt;span&gt;&amp;nbsp;&lt;/span&gt;편이고&lt;span&gt;&amp;nbsp;&lt;/span&gt;스토리에는&lt;span&gt;&amp;nbsp;&lt;/span&gt;예민한&lt;span&gt;&amp;nbsp;&lt;/span&gt;편입니다.&amp;nbsp;&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;예를&lt;span&gt;&amp;nbsp;&lt;/span&gt;들어서,&lt;span&gt;&amp;nbsp;&lt;/span&gt;최근의&lt;span&gt;&amp;nbsp;&lt;/span&gt;전기차&lt;span&gt;&amp;nbsp;&lt;/span&gt;사태만&lt;span&gt;&amp;nbsp;&lt;/span&gt;봐도&lt;span&gt;&amp;nbsp;&lt;/span&gt;그렇죠.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;주차된 전기차의 화재로 인해 전기차의 주차를 금지하는 주차타워와 지하 추자장이 늘고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;같은 논리라면&amp;nbsp;사실&lt;span&gt;&amp;nbsp;&lt;/span&gt;주행&lt;span&gt;&amp;nbsp;&lt;/span&gt;중&lt;span&gt;&amp;nbsp;&lt;/span&gt;화재율이&lt;span&gt;&amp;nbsp;&lt;/span&gt;높은&lt;span&gt;&amp;nbsp;&lt;/span&gt;내연차는&lt;span&gt;&amp;nbsp;&lt;/span&gt;주로&lt;span&gt;&amp;nbsp;&lt;/span&gt;주행&lt;span&gt;&amp;nbsp;&lt;/span&gt;중에&lt;span&gt;&amp;nbsp;&lt;/span&gt;불이&lt;span&gt;&amp;nbsp;&lt;/span&gt;나기&lt;span&gt;&amp;nbsp;&lt;/span&gt;때문에&lt;span&gt;&amp;nbsp;&lt;/span&gt;주행을&lt;span&gt;&amp;nbsp;&lt;/span&gt;금지시켜야&lt;span&gt;&amp;nbsp;&lt;/span&gt;할 것입니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;사망&lt;span&gt;&amp;nbsp;&lt;/span&gt;사고가&lt;span&gt;&amp;nbsp;&lt;/span&gt;나서&lt;span&gt;&amp;nbsp;&lt;/span&gt;사람이&lt;span&gt;&amp;nbsp;&lt;/span&gt;죽을&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있는&lt;span&gt;&amp;nbsp;&lt;/span&gt;자동차라는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것을&lt;span&gt;&amp;nbsp;&lt;/span&gt;우리는&lt;span&gt;&amp;nbsp;&lt;/span&gt;대체&lt;span&gt;&amp;nbsp;&lt;/span&gt;왜&lt;span&gt;&amp;nbsp;&lt;/span&gt;지금&lt;span&gt;&amp;nbsp;&lt;/span&gt;이용을&lt;span&gt;&amp;nbsp;&lt;/span&gt;하고&lt;span&gt;&amp;nbsp;&lt;/span&gt;있는지&lt;span&gt;&amp;nbsp;&lt;/span&gt;고민해봐야&lt;span&gt;&amp;nbsp;&lt;/span&gt;합니다.&amp;nbsp;&lt;span&gt;&amp;nbsp;&lt;/span&gt;자동차가&lt;span&gt;&amp;nbsp;&lt;/span&gt;주는&lt;span&gt;&amp;nbsp;&lt;/span&gt;사회적&lt;span&gt;&amp;nbsp;&lt;/span&gt;편익이&lt;span&gt;&amp;nbsp;&lt;/span&gt;리스크에&lt;span&gt;&amp;nbsp;&lt;/span&gt;비해서&lt;span&gt;&amp;nbsp;&lt;/span&gt;훨씬&lt;span&gt;&amp;nbsp;&lt;/span&gt;더&lt;span&gt;&amp;nbsp;&lt;/span&gt;크다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;점을&lt;span&gt;&amp;nbsp;&lt;/span&gt;모두가&lt;span&gt;&amp;nbsp;&lt;/span&gt;동의하기&lt;span&gt;&amp;nbsp;&lt;/span&gt;때문이지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않을까요&lt;span&gt;&amp;nbsp;&lt;/span&gt;?&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;이런&lt;span&gt;&amp;nbsp;&lt;/span&gt;네러티브와&lt;span&gt;&amp;nbsp;&lt;/span&gt;숫자에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;이야기들은&lt;span&gt;&amp;nbsp;&lt;/span&gt;우리가&lt;span&gt;&amp;nbsp;&lt;/span&gt;늘&lt;span&gt;&amp;nbsp;&lt;/span&gt;민감하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;반응해야&lt;span&gt;&amp;nbsp;&lt;/span&gt;합니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;스토리는&lt;span&gt;&amp;nbsp;&lt;/span&gt;늘&lt;span&gt;&amp;nbsp;&lt;/span&gt;사람들을&lt;span&gt;&amp;nbsp;&lt;/span&gt;현혹되게&lt;span&gt;&amp;nbsp;&lt;/span&gt;만들고,&lt;span&gt;&amp;nbsp;&lt;/span&gt;건강에&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;워딩은&lt;span&gt;&amp;nbsp;&lt;/span&gt;건강에&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;것보다&lt;span&gt;&amp;nbsp;&lt;/span&gt;조회수가&lt;span&gt;&amp;nbsp;&lt;/span&gt;잘&lt;span&gt;&amp;nbsp;&lt;/span&gt;나오는&lt;span&gt;&amp;nbsp;&lt;/span&gt;세상이기&lt;span&gt;&amp;nbsp;&lt;/span&gt;때문이죠.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;&lt;b&gt;다양한&lt;span&gt;&amp;nbsp;&lt;/span&gt;논문들의&lt;span&gt;&amp;nbsp;&lt;/span&gt;결과를&lt;span&gt;&amp;nbsp;&lt;/span&gt;종합해보면&lt;span&gt;&amp;nbsp;&lt;/span&gt;하루에&lt;span&gt;&amp;nbsp;&lt;/span&gt;3~4잔은&lt;span&gt;&amp;nbsp;&lt;/span&gt;만성질환을&lt;span&gt;&amp;nbsp;&lt;/span&gt;예방한다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;점.&lt;span&gt;&amp;nbsp;&lt;/span&gt;그리고&lt;span&gt;&amp;nbsp;&lt;/span&gt;수면에&lt;span&gt;&amp;nbsp;&lt;/span&gt;영향을&lt;span&gt;&amp;nbsp;&lt;/span&gt;미치지&lt;span&gt;&amp;nbsp;&lt;/span&gt;않을&lt;span&gt;&amp;nbsp;&lt;/span&gt;정도로&lt;span&gt;&amp;nbsp;&lt;/span&gt;양을&lt;span&gt;&amp;nbsp;&lt;/span&gt;조절한다면&lt;span&gt;&amp;nbsp;&lt;/span&gt;적절히&lt;span&gt;&amp;nbsp;&lt;/span&gt;즐길&lt;span&gt;&amp;nbsp;&lt;/span&gt;수&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;오히려&lt;span&gt;&amp;nbsp;&lt;/span&gt;건강에&lt;span&gt;&amp;nbsp;&lt;/span&gt;도움이&lt;span&gt;&amp;nbsp;&lt;/span&gt;된다는 점!&lt;/b&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;그래서&lt;span&gt;&amp;nbsp;&lt;/span&gt;건강에&lt;span&gt;&amp;nbsp;&lt;/span&gt;도움이&lt;span&gt;&amp;nbsp;&lt;/span&gt;된다고&lt;span&gt;&amp;nbsp;&lt;/span&gt;무리하게&lt;span&gt;&amp;nbsp;&lt;/span&gt;마실&lt;span&gt;&amp;nbsp;&lt;/span&gt;필요도&lt;span&gt;&amp;nbsp;&lt;/span&gt;없고,&lt;span&gt;&amp;nbsp;&lt;/span&gt;건강&lt;span&gt;&amp;nbsp;&lt;/span&gt;관리를&lt;span&gt;&amp;nbsp;&lt;/span&gt;이유로&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피를&lt;span&gt;&amp;nbsp;&lt;/span&gt;아예&lt;span&gt;&amp;nbsp;&lt;/span&gt;끊을&lt;span&gt;&amp;nbsp;&lt;/span&gt;필요도 없습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;단,&lt;span&gt;&amp;nbsp;&lt;/span&gt;믹스&lt;span&gt;&amp;nbsp;&lt;/span&gt;커피는&lt;span&gt;&amp;nbsp;&lt;/span&gt;별로&lt;span&gt;&amp;nbsp;&lt;/span&gt;좋지 않습니다.&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #333333; text-align: left;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;첨가당에&lt;span&gt;&amp;nbsp;&lt;/span&gt;대한&lt;span&gt;&amp;nbsp;&lt;/span&gt;위험성은&lt;span&gt;&amp;nbsp;&lt;/span&gt;너무&lt;span&gt;&amp;nbsp;&lt;/span&gt;많은&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구가&lt;span&gt;&amp;nbsp;&lt;/span&gt;있습니다.&lt;span&gt;&amp;nbsp;&lt;/span&gt;첨가당은&lt;span&gt;&amp;nbsp;&lt;/span&gt;암&lt;span&gt;&amp;nbsp;&lt;/span&gt;발생률을&lt;span&gt;&amp;nbsp;&lt;/span&gt;100~200%&lt;span&gt;&amp;nbsp;&lt;/span&gt;늘린다는&lt;span&gt;&amp;nbsp;&lt;/span&gt;연구도&lt;span&gt;&amp;nbsp;&lt;/span&gt;많습니다.&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;</description>
      <category>Medical</category>
      <category>건강</category>
      <category>건강관리</category>
      <category>논문</category>
      <category>커피</category>
      <category>커피건강</category>
      <category>헬스케어</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/144</guid>
      <comments>https://minyoungxi.tistory.com/144#entry144comment</comments>
      <pubDate>Sat, 17 May 2025 23:15:15 +0900</pubDate>
    </item>
    <item>
      <title>[BioInformations] DNA / RNA 데이터는 어디에서 찾아야 할까?</title>
      <link>https://minyoungxi.tistory.com/143</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;데이터 찾기&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA와 RNA의 메틸레이션 데이터가 필요해서 관련 데이터들을 수집하기 위해 여러 연구 논문들을 참고했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;보통 처음 다루는 데이터의 출처나 정보를 얻기 위해서는 비슷한 데이터를 사용한 논문을 보시면 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문을 보면 어떤 데이터를 사용했는지 출처가 상세하게 나와있죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가끔 데이터셋 링크를 첨부하거나 저자의 Github에 함께 포함된 경우도 있습니다. ( 정말 종종 )&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이번에는 DNA와 RNA 데이터가 필요해서 관련 논문을 보면 다양한 플랫폼과 기관들에 대한 정보가 많습니다.&amp;nbsp;&lt;/p&gt;
&lt;div&gt;&lt;b&gt;NCBI&lt;/b&gt;, &lt;b&gt;TCGA&lt;/b&gt;, &lt;b&gt;Xena&lt;/b&gt; 같은 플랫폼은 생물학이나 바이오인포를 전공하시는 분들이면 많이 들어봤을 것입니다.&amp;nbsp;&lt;/div&gt;
&lt;h2 style=&quot;color: #000000; text-align: start;&quot; data-ke-size=&quot;size26&quot;&gt;DNA와 RNA 데이터 수집을 위한 주요 플랫폼&lt;/h2&gt;
&lt;div&gt;
&lt;div&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;1. &lt;b&gt;NCBI (National Center for Biotechnology Information)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;NCBI&lt;/b&gt;는 미국 국립생물공학정보센터로, 전 세계 연구자들이 사용하는 거대한 생물학적 데이터베이스예요. DNA와 RNA 데이터를 포함해 유전체, 단백질, 그리고 다양한 생물학적 정보를 제공합니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;주요 데이터베이스&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;GenBank&lt;/b&gt;: 전 세계에서 수집된 DNA 서열 데이터를 모아놓은 곳이에요. 연구자들이 직접 제출한 데이터도 포함돼 있어서, 다양한 생물 종의 원시 서열을 찾을 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;RefSeq&lt;/b&gt;: NCBI가 큐레이션한 DNA, RNA, 단백질 서열 데이터로, 주석이 함께 제공돼서 유전자 분석에 유용해요.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;SRA (Sequence Read Archive)&lt;/b&gt;: RNA-seq나 DNA-seq 같은 고속 시퀀싱 데이터를 저장하는 아카이브예요. 원시 데이터를 다운로드해서 분석할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;특징&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;생물학적 데이터의 범위가 매우 넓어요. 암뿐만 아니라 모든 생물 종과 질병에 대한 데이터를 다룹니다.&lt;/li&gt;
&lt;li&gt;원시 데이터와 주석을 제공해서, 데이터를 직접 가공하거나 분석하려는 연구자들에게 적합해요.&lt;/li&gt;
&lt;li&gt;메틸레이션 데이터도 일부 포함돼 있지만, 특정 질병에 특화된 데이터셋보다는 일반적인 유전체 정보가 주를 이룹니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;차이점&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;NCBI는 특정 프로젝트나 질병에 초점을 맞추기보다는, 생물학 전반에 걸친 데이터를 제공하는 &lt;b&gt;&quot;종합 데이터 창고&quot;&lt;/b&gt; 같은 역할을 해요. 그래서 암 연구만을 위한 데이터보다는 더 포괄적인 정보를 얻을 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1182&quot; data-origin-height=&quot;720&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/BoCke/btsNmeW8Yfu/eJoKfTW6Q5xkOKs1XzVpWk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/BoCke/btsNmeW8Yfu/eJoKfTW6Q5xkOKs1XzVpWk/img.png&quot; data-alt=&quot;NCBI&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/BoCke/btsNmeW8Yfu/eJoKfTW6Q5xkOKs1XzVpWk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FBoCke%2FbtsNmeW8Yfu%2FeJoKfTW6Q5xkOKs1XzVpWk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1182&quot; height=&quot;720&quot; data-origin-width=&quot;1182&quot; data-origin-height=&quot;720&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;NCBI&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;div&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;2. &lt;b&gt;TCGA (The Cancer Genome Atlas)&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;TCGA&lt;/b&gt;는 암 게놈 아틀라스 프로젝트로, 미국 국립암연구소(NCI)와 국립인간게놈연구소(NHGRI)가 함께 운영해요. 33가지 암 유형에 대한 대규모 유전체 데이터를 제공하며, 특히 암 연구에 특화된 플랫폼입니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;주요 데이터&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;DNA 메틸레이션 데이터&lt;/b&gt;: Illumina 450K 같은 기술로 생성된 메틸레이션 데이터를 제공해요. 암 샘플에서 에피제네틱 변화를 분석할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;RNA-seq 데이터&lt;/b&gt;: 암 조직의 전사체 데이터를 포함하며, 유전자 발현 수준을 확인할 수 있어요.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;임상 데이터&lt;/b&gt;: 환자의 진단, 치료, 생존 정보가 포함돼 있어서 유전체 데이터와 연계한 분석이 가능합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;특징&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;암 연구에 특화된 데이터를 제공하며, 방대한 데이터셋을 통해 암의 분자적 특성을 깊이 파악할 수 있어요.&lt;/li&gt;
&lt;li&gt;데이터는 **Genomic Data Commons (GDC)**를 통해 접근 가능하며, 일부는 공개(Open Access), 일부는 통제된 접근(Controlled Access) 방식으로 제공됩니다.&lt;/li&gt;
&lt;li&gt;메틸레이션 데이터는 암 발생과 진행을 이해하는 데 핵심적인 역할을 하며, TCGA는 이를 위한 풍부한 자료를 갖추고 있어요.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;차이점&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;NCBI와 달리 &lt;b&gt;암에 특화&lt;/b&gt;된 데이터를 제공한다는 점이 가장 큰 차이예요. 암 연구를 하신다면 TCGA가 훨씬 더 구체적이고 깊이 있는 데이터를 줄 거예요.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1413&quot; data-origin-height=&quot;783&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/zd4Ve/btsNllpnX8R/jwmUvHkOMnfcs6sezeFmx0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/zd4Ve/btsNllpnX8R/jwmUvHkOMnfcs6sezeFmx0/img.png&quot; data-alt=&quot;TCGA&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/zd4Ve/btsNllpnX8R/jwmUvHkOMnfcs6sezeFmx0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fzd4Ve%2FbtsNllpnX8R%2FjwmUvHkOMnfcs6sezeFmx0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1413&quot; height=&quot;783&quot; data-origin-width=&quot;1413&quot; data-origin-height=&quot;783&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;TCGA&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;div&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;3. &lt;b&gt;Xena&lt;/b&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Xena&lt;/b&gt;는 UCSC(University of California, Santa Cruz)에서 개발한 데이터 시각화 플랫폼이에요. TCGA 같은 대규모 유전체 데이터를 쉽게 탐색하고 시각화할 수 있도록 도와줍니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;주요 기능&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;데이터 시각화&lt;/b&gt;: TCGA, GTEx, ICGC 등의 데이터를 웹에서 바로 볼 수 있어요. 예를 들어, 유전자 발현과 메틸레이션 데이터를 한눈에 비교할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;통합 분석&lt;/b&gt;: 여러 데이터 유형(메틸레이션, RNA-seq 등)을 통합해서 상관관계를 분석할 수 있어요.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;사용자 친화적&lt;/b&gt;: 코딩 없이도 웹 인터페이스를 통해 데이터를 탐색할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;특징&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;데이터를 직접 생성하지 않고, TCGA 같은 공개 데이터를 활용해 시각화와 분석에 중점을 둔 도구예요.&lt;/li&gt;
&lt;li&gt;연구자들이 자신의 데이터를 업로드해서 TCGA 데이터와 비교할 수도 있어요.&lt;/li&gt;
&lt;li&gt;메틸레이션과 RNA 데이터를 함께 시각화해서 에피제네틱 변화와 유전자 발현의 관계를 쉽게 볼 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;차이점&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Xena는 데이터 제공 플랫폼이라기보다는 &lt;b&gt;시각화와 분석 도구&lt;/b&gt;에 가까워요. NCBI나 TCGA가 데이터를 제공하는 &quot;창고&quot;라면, Xena는 그 데이터를 예쁘게 정리해서 보여주는 &quot;전시관&quot; 같은 느낌이에요&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1281&quot; data-origin-height=&quot;1112&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/zSIYY/btsNmuLT7fa/RwrXwT3O77x4WslkYNZeH0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/zSIYY/btsNmuLT7fa/RwrXwT3O77x4WslkYNZeH0/img.png&quot; data-alt=&quot;xena&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/zSIYY/btsNmuLT7fa/RwrXwT3O77x4WslkYNZeH0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FzSIYY%2FbtsNmuLT7fa%2FRwrXwT3O77x4WslkYNZeH0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1281&quot; height=&quot;1112&quot; data-origin-width=&quot;1281&quot; data-origin-height=&quot;1112&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;xena&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;div&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;플랫폼 간의 차이점 요약&lt;/h3&gt;
&lt;div&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%;&quot; border=&quot;1&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;NCBI&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;생물학 데이터 저장소&lt;/td&gt;
&lt;td&gt;DNA, RNA 서열, 메틸레이션 등&lt;/td&gt;
&lt;td&gt;광범위한 데이터, 원시 데이터 제공&lt;/td&gt;
&lt;td&gt;유전체 연구, 생물학 분석&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;TCGA&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;암 게놈 데이터 제공&lt;/td&gt;
&lt;td&gt;메틸레이션, RNA-seq, 임상 데이터 등&lt;/td&gt;
&lt;td&gt;암 특화, 대규모 데이터셋&lt;/td&gt;
&lt;td&gt;암 연구, 통합 분석&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Xena&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;데이터 시각화 및 분석&lt;/td&gt;
&lt;td&gt;TCGA 등 공개 데이터 시각화&lt;/td&gt;
&lt;td&gt;웹 기반, 사용자 친화적&lt;/td&gt;
&lt;td&gt;데이터 탐색, 시각화&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;결론: 어떤 플랫폼을 선택할까?&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA와 RNA 데이터를 찾을 때는 연구 목적에 따라 플랫폼을 선택하는 게 좋아요.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;NCBI&lt;/b&gt;는 다양한 생물학적 데이터를 제공하니까, 암뿐만 아니라 다른 질병이나 종에 대한 연구를 할 때 유용해요.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;TCGA&lt;/b&gt;는 암 연구에 특화된 데이터를 제공하니, 메틸레이션 데이터를 포함한 암 관련 분석을 원한다면 최고의 선택이에요.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Xena&lt;/b&gt;는 TCGA 데이터를 시각화하고 탐색하는 데 최적화된 도구로, 데이터를 다운로드하지 않고도 빠르게 분석을 시작할 수 있어요.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;특히 메틸레이션 데이터가 필요하시다면, &lt;b&gt;TCGA&lt;/b&gt;에서 데이터를 수집하고, &lt;b&gt;Xena&lt;/b&gt;로 시각화하며 분석하는 조합을 추천드려요. 그리고 NCBI를 통해 더 넓은 생물학적 맥락을 확인할 수도 있으니, 이 세 플랫폼을 함께 활용하면 데이터 수집과 분석이 훨씬 수월해질 거예요.&lt;/p&gt;
&lt;/div&gt;</description>
      <category>Bioinformatics</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/143</guid>
      <comments>https://minyoungxi.tistory.com/143#entry143comment</comments>
      <pubDate>Tue, 15 Apr 2025 13:53:49 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] Alphafold3 - 생성 모델과 바이오를 결합시켜서 신약 헌팅</title>
      <link>https://minyoungxi.tistory.com/142</link>
      <description>&lt;h1 style=&quot;background-color: #ffffff; color: #222222; text-align: start;&quot; data-article-title=&quot;&quot; data-test=&quot;article-title&quot;&gt;Accurate structure prediction of biomolecular interactions with AlphaFold 3&lt;/h1&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문 링크 : &lt;a href=&quot;https://www.nature.com/articles/s41586-024-07487-w&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.nature.com/articles/s41586-024-07487-w&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Nature에 엄청난 논문이 나왔었죠. Alphafold1이 나왔을 때 사람들이 엄청 놀랐는데, 벌써 세 번째 모델이 나왔습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2024년 11월에 Publish된 해당 논문은 생성 모델이, 인공지능이 실제로 바이오 분야에 엄청난 도움이 된다는 것을 가장 잘 느끼게 해줍니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 논문 리뷰 전에 생성 모델의 기초가 되는 부분들을 리뷰해보면서 가봅시다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Diffusion&lt;/span&gt;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 Diffusion 모델의 발전 과정과 개념에 대해서 리뷰를 하고 넘어가도록 하겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;diffusion 모델은 생성 모델의 한 종류로, 데이터에 점진적으로 잡음을 추가하는 forward process와 이를 역으로 제거하는 Reverse process 를 통해 새로운 데이터를 생성하는 기법입니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;956&quot; data-origin-height=&quot;366&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bN8O0v/btsM2f3gzzt/mq8gN35yc91kiMnhkyx70k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bN8O0v/btsM2f3gzzt/mq8gN35yc91kiMnhkyx70k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bN8O0v/btsM2f3gzzt/mq8gN35yc91kiMnhkyx70k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbN8O0v%2FbtsM2f3gzzt%2Fmq8gN35yc91kiMnhkyx70k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;690&quot; height=&quot;264&quot; data-origin-width=&quot;956&quot; data-origin-height=&quot;366&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Forward Diffusion Process&lt;/b&gt;에서는 이미지에&amp;nbsp;&lt;b&gt;고정된(fixed)&lt;/b&gt;&amp;nbsp;정규 분포(=Gaussian분포)로 생성된 Noise가 더해지고,&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Reverse Diffusion Process&lt;/b&gt;에서는 이미지를&amp;nbsp;&lt;b&gt;학습된(learned)&lt;/b&gt;&amp;nbsp;정규 분포로 생성된 Noise이미지로 뺍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Diffusion Model이 풀려고 하는 문제는, Forward -&amp;gt; Reverse 단계를 거친 '결과 이미지'를 '입력 이미지'의 확률 분포와 유사하게 만드는 것 입니다. 이를 위해 Reverse단계에서,&amp;nbsp;Noise 생성 확률 분포 Parameter인 평균과 표준편차를 업데이트하며 학습이 진행됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위 이미지는 &lt;b&gt;2015년 Diffusion model&lt;/b&gt;에 해당하는 그림입니다. MLE(Maximum Log-Likelihood Estimation)를 사용한 결과이고, 아래의 그림은 유명한 연구인 DDPM에 해당됩니다. DDPM에서는 Reverse 단계에 U-net 모델을 사용했습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;828&quot; data-origin-height=&quot;549&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bXiuHp/btsM04PrhUu/Dl642XLZb6UGHjZPvckXek/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bXiuHp/btsM04PrhUu/Dl642XLZb6UGHjZPvckXek/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bXiuHp/btsM04PrhUu/Dl642XLZb6UGHjZPvckXek/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbXiuHp%2FbtsM04PrhUu%2FDl642XLZb6UGHjZPvckXek%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;633&quot; height=&quot;420&quot; data-origin-width=&quot;828&quot; data-origin-height=&quot;549&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사실 디퓨전 모델을 하나씩 자세학 리뷰하면 하나의 논문으로 거의 1시간을 채울 수 있을 만큼 수학적인 개념이 많이 요구됩니다. 그 중에서도 &lt;b&gt;Markov chain&lt;/b&gt;과 &lt;b&gt;Bayesian Rule&lt;/b&gt;은 수식을 이해할 때 가장 중요한 개념입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;691&quot; data-origin-height=&quot;239&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/blbJqZ/btsM05VcNnJ/tY8G5pIVsYuBd13HqcqKc1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/blbJqZ/btsM05VcNnJ/tY8G5pIVsYuBd13HqcqKc1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/blbJqZ/btsM05VcNnJ/tY8G5pIVsYuBd13HqcqKc1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FblbJqZ%2FbtsM05VcNnJ%2FtY8G5pIVsYuBd13HqcqKc1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;691&quot; height=&quot;239&quot; data-origin-width=&quot;691&quot; data-origin-height=&quot;239&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;생성 모델의 발전 과정&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이제 Diffusion 모델의 발전 과정입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Diffusion 모델의 전반적인 발전 흐름을 SCI급 저널과 최상위 컨퍼런스를 기준으로 선정한 핵심 논문들을 정리한 내용입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2015년에는 확산 확률모델이 등장했습니다. 확산 기반의 생성 모델을 처음으로 제시했고, 이 논문에서는 비평형 통계역학이라는 개념을 활용하여 데이터의 구조를 서서회 파괴하는 forward process와 이를 거꾸로 진행시켜 데이터를 복원하는 reverse process 과정을 정의했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 논문의 가장 중요한 contribution은 이전의 GAN이나 VAE와 다른 제 3의 생성 모델 패러다임을 제시했다는 점입니다. 특히 이 방법은 수학적으로도 이점이 굉장히 많습니다. 예를 들어 명시적인 확률밀도 평가와 우도 계산이 가능하다는 장점이 있고, 얕은 신경망으로도 복잡한 데이터를 생성할 수 있다는 것을 보여줬습니다. 그리고 확산모델의 log likelihood를 계산해보면 다른 확률 모델 대비 경쟁력이 있다는 점도 확인했죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 이 논문은 diffusion 모델 연구의 기초가 되었고, 후&lt;b&gt;속 연구들은 이런 forward/reverse 프레임워크 위에서 다양한 개선과 변형을 시도하게 된 것이죠.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;스코어 매칭(Score Matching) &lt;/b&gt;방법을 활용한 새로운 생성 모델을 발표했습니다. 이 논문에서는 복잡한 확률분포를 직접 추정하는 대신,&lt;b&gt;데이터 분포의 기울기(Score)를 추정&lt;/b&gt;하여 샘플을 생성하는 접근을 취합니다. 구체적으로, 데이터에 다양한 크기의 가우시안 노이즈를 섞은 변형들을 만들고, 각 노이즈 수준에서의 로그확률 기울기를 신경망으로 학습합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;그리고 Diffusion 모델 중 가장 중요한 연구 중 하나의 DDPM이 등장합니다.&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;DDPM(Denoising Diffusion Probabilistic Models)으로 불리는 확산 확률모델 입니다. 앞서 2015년 제안되었던 Diffusion 모델의 아이디어를 현대적으로 계승&amp;middot;발전시킨 이 논문은, 확산모델을 통해 당시 최고 성능의 이미지를 생성하며 큰 반향을 일으켰습니다. 특히&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;Score Matching 관점과 확산모델의 연결 고리&lt;/b&gt;를 이론적으로 제시하고, 효과적인 손실 최적화 기법을 알려준 것이 주요 공헌입니다.&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;DDPM 논문의 등장은 diffusion모델의 붐을 일으켰습니다. 이후 많은 연구가 DDPM의 구조와 손실을 개선하거나, 샘플링 속도를 높이거나, 조건부 생성에 적용하는 등으로 이어졌습니다. 대표적으로 OpenAI의 분석 논문 등이 나와 확산모델이 GAN을 대체할 강력한 후보로 부상하게 됩니다.&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;그리고 DDIM은&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;학습된 DDPM을 수정 없이&lt;/b&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;사용하면서도&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;b&gt;상당히 적은 단계로 빠르게 샘플링&lt;/b&gt;할 수 있는 기법입니다. DDIM은 학습 절차를 바꾸지 않고도 확산모델의 느린 샘플링 문제를 상당 부분 개선했다는 큰 기여를 했습니다. 이후 확산모델을 응용할 때 DDIM이 자주 사용되어, 빠른 샘플 생성이나 이미지 편집(interpolation, morphing 등)에 활용되었습니다. 더 나아가 DDIM은 확산모델의 수학적 구조를 이해하는 데 기여하여, 확률적 확산을 ODE로 바라보는 통찰을 제공합니다.&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;정리하면, DDIM은 확산모델도 모수화에 따라 GAN처럼 결정론적 맵핑이 가능하다는 흥미로운 결과를 보여주었고, 실용적인 가속 이점까지 갖추어 확산 연구자들 사이에 널리 활용되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%; height: 686px;&quot; border=&quot;1&quot; width=&quot;1235&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr style=&quot;height: 43px;&quot;&gt;
&lt;td style=&quot;height: 43px;&quot; width=&quot;92&quot; height=&quot;43&quot;&gt;&lt;span style=&quot;color: #000000; background-color: #ffc1c8;&quot;&gt;연도&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 43px;&quot; width=&quot;256&quot;&gt;&lt;span style=&quot;color: #000000; background-color: #ffc1c8;&quot;&gt;논문&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 43px;&quot; width=&quot;618&quot;&gt;&lt;span style=&quot;color: #000000; background-color: #ffc1c8;&quot;&gt;Contribution&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 43px;&quot; width=&quot;268&quot;&gt;&lt;span style=&quot;color: #000000; background-color: #ffc1c8;&quot;&gt;모델 특징&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr style=&quot;height: 143px;&quot;&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;92&quot; height=&quot;143&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2015&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;256&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Deep Unsupervised Learning using Nonequilibrium Thermodynamics&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;&lt;br /&gt;- ICML 2015​&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;618&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;확산 확률 모델&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;(diffusion probabilistic model)&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;의 개념 제시&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;. &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;순방향으로 데이터에 점진적으로 노이즈를 추가하고&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;역방향으로 노이즈를 제거하며 데이터를 복원하는 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;마르코프&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 연쇄&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 생성 과정 제안​&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;268&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Forward/Reverse &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;확산 프로세스&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 정의&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr style=&quot;height: 143px;&quot;&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;92&quot; height=&quot;143&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2019&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;256&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Generative Modeling by Estimating Gradients of the Data Distribution&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;618&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Score Matching&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;을 활용한 새로운 생성모델 제안&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;. &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;여러 수준의 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;가우시안&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 노이즈를 데이터에 첨가한 후 각 노이즈 수준별 스코어&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;(&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;확률밀도 기울기&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;)&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;를 신경망으로 추정&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 143px;&quot; width=&quot;268&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Noise-Conditional Score Network (NCSN)&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;제안&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr style=&quot;height: 169px;&quot;&gt;
&lt;td style=&quot;height: 169px;&quot; width=&quot;92&quot; height=&quot;169&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2020&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 169px;&quot; width=&quot;256&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #0070c0;&quot;&gt;Denoising Diffusion Probabilistic Models&lt;/span&gt;&lt;span style=&quot;color: #0070c0;&quot;&gt; (DDPM)&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 169px;&quot; width=&quot;618&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;확률적 확산 모델과 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Score Matching&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;의 연결 규명&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/span&gt;&lt;br /&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- ELBO &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;기반 손실&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;을 가중치 조정하여 단순화하고&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;결과적으로 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;MSE &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;손실로 노이즈 예측&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 학습이 가능함을 제시&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/span&gt;&lt;br /&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- CIFAR-10&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;에서 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Inception Score 9.46 / FID 3.17&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;로 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;SOTA &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;달성&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, LSUN 256&amp;times;256&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;에서도 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;ProgressiveGAN&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;에 필적하는 화질&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 169px;&quot; width=&quot;268&quot;&gt;&lt;span&gt;&lt;br /&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr style=&quot;height: 188px;&quot;&gt;
&lt;td style=&quot;height: 188px;&quot; width=&quot;92&quot; height=&quot;188&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2021&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 188px;&quot; width=&quot;256&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Denoising Diffusion Implicit Models&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; (DDIM) ICLR 2021​&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td style=&quot;height: 188px;&quot; width=&quot;618&quot;&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;확산 모델의 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;비마르코프&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;(non-Markov) &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;샘플링 과정&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 제안&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;. &lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;DDIM&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;을 통해 샘플링 속도를 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;10~50&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;배 가속&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;하면서도 샘플 품질 저하가 미미함을 실증&lt;/span&gt;&lt;/div&gt;
&lt;/td&gt;
&lt;td style=&quot;height: 188px;&quot; width=&quot;268&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;네트워크 구조나 학습은 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;DDPM&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;과 동일하지만&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;생성시 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;T&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;회가 아닌 훨씬 적은 단계로도 고품질 생성&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;뛰어난 이미지 품질에도 불구하고, 픽셀 공간에서 작동하는 Diffusion 모델은 계산량이 막대했습니다. 2022년 CVPR의 Rombach라는 사람이 이를 극복하기 위해 &lt;b&gt;잠재 공간&lt;/b&gt;에서 확산을 수행하는 LDM (Latent Diffusion Model)을 선보였고, 이는 훗날 Stable Diffusion으로 알려졌습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;먼저 별도의 VAE(autoencoder)를 사용해 고해상도 이미지를 저차원 &lt;b&gt;잠재 벡터 공간&lt;/b&gt;으로 압축합니다. 이 잠재공간에서는 이미지의 중요한 구조는 보존하면서도 차원이 크게 줄어들기 때문에, &lt;b&gt;확산모델의 연산부담이 감소.&lt;/b&gt; 이후 이 잠재 공간에서 DDPM과 유사한 확산모델을 학습하여, 잠재 벡터를 생성하도록 합니다. 최종적으로 생성된 잠재 벡터를 VAE 디코더로 변환해 이미지를 얻습니다. 이 접근으로, 픽셀 단위로 할 때 대비 수백 배의 속도 향상을 달성했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 Cross-Attention을 도입했다는 것도 중요한 점입니다. 기존 diffusion U-Net은 클래스 레이블 등의 간단한 조건만 처리했는데, LDM은 Text, Bounding Box, Segmentation Map 등 &lt;b&gt;임의의 조건&lt;/b&gt;을 처리하기 위해 U-Net 중간에 Cross-Attn 레이어를 넣었습니다. 예컨대 텍스트 조건의 경우, CLIP의 텍스트 임베딩 시퀀스를 Key, Value로 하고 U-Net의 feature를 Query로 하는 어텐션을 적용합니다. 이를 통해 거대한 텍스트 정보도 효과적으로 활용할 수 있게 되었고, 복잡한 조건부 생성 작업에 확산모델을 적용하는 길이 열렸습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모델을 하나씩 다 자세하게 살펴보지는 않았지만 Diffusion 모델은 안정적인 확률적 생성 모델이고, 현재 이미지 생성 분야에서 가장 강력한 모델 중 하나로 자리 잡았습니다. 특히 저희가 연구하고 있는 메디컬 분야처럼 현실적 정확도와 다양성이 중요한 분야에서도 좋은 성과를 보이고 있고 앞으로도 지속적으로 연구와 응용이 활발할 것으로 기대됩니다.&lt;/p&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%;&quot; border=&quot;1&quot; width=&quot;1288&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td width=&quot;96&quot; height=&quot;40&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;연도&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;267&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;논문&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;645&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Contribution&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;280&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;모델 특징&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;96&quot; height=&quot;383&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2022&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;267&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #0070c0;&quot;&gt;High-Resolution Image Synthesis with Latent Diffusion Models&lt;/span&gt;&lt;span style=&quot;color: #0070c0;&quot;&gt; (Stable Diffusion)&lt;/span&gt;&lt;/span&gt;&lt;br /&gt;&lt;span&gt;&lt;span style=&quot;color: #0070c0;&quot;&gt;CVPR 2022​&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;645&quot;&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;고해상도 이미지 생성을 위해 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;잠재 공간&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;(Latent Space)&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;에서 확산을 수행하는 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;LDM &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;제안&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;. &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;픽셀 공간에서 직접 확산하던 기존 방식의 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;연산량을&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 크게 절감하면서도 이미지 세부묘사 유지에 성공&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;사전학습 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;VAE&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;로 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;이미지&amp;rarr;잠재벡터&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 변환 후&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;그 잠재공간에 대해 확산모델 적용하여 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;복잡도 대 품질 절충의 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;최적점&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 도달&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;또한 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;U-Net&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;에 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Cross-Attention&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 층을 도입하여 텍스트 등 임의 조건에 따른 이미지 생성을 자연스럽게 지원&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;그 결과&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;이미지 인페인팅에서 새로운 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;SOTA&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;를 달성하고&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;무조건 생성&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;장면합성&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;초해상화 등에서도 기존 대비 경쟁력 있는 성능을 보이며&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;동일 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;성능시&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 계산 비용은 크게 감소됨&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/div&gt;
&lt;/td&gt;
&lt;td width=&quot;280&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;VAE+Diffusion&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;구조&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;96&quot; height=&quot;276&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2022&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;267&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; (Imagen)&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;645&quot;&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;대형 언어모델을 텍스트 인코더로 활용한 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;고해상도 텍스트&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;투&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;이미지 확산모델&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 제안&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span&gt;&lt;span&gt;-&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;DrawBench&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 벤치마크를 제안하여 타 모델&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;(DALL-E2, GLIDE, LDM &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;등&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;)&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;과 비교한 결과&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;, &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;인간 평가에서 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Imagen&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;의 텍스트&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;이미지 품질이 가장 우수함을 입증&lt;/span&gt;&lt;/div&gt;
&lt;/td&gt;
&lt;td width=&quot;280&quot;&gt;&lt;span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;거대 &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;LM &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;결합 확산모델&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;: &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;텍스트&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-&amp;gt;&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;임베딩에&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; 파라미터 수십억 규모&lt;/span&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Bioinformatics Data&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제가 이 분야를 공부하기 시작하면서 가장 이해하기 힘들었던 부분이 데이터 타입에 관련된 부분이었습니다. 사실 다 같은 텍스트 데이터로 이뤄졌다고 생각했거든요. 현재 제가 연습하고 다루고 있는 데이터는 DNA와 RNA 같은 1차원 서열 정보를 주로 다루고 있습니다. 그런데 모두가 알고 있는 Alphafold나 RFdiffusion과 같은 생성 모델들은 모두 단백질 데이터를 다루고 있어요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;DNA 데이터&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;보통 실험실에서는 특정 &lt;b&gt;유전자(Gene) 또는 유전자들 일부&lt;/b&gt;를 PCR 증폭하거나, NGS로 짧게 잘라 시퀀싱한 후, 필요한 서열만 부분적으로 취급합니다.&lt;/li&gt;
&lt;li&gt;즉, 전체 게놈 중 **&amp;ldquo;특정 관심 구간&amp;rdquo;**의 서열이 DNA 데이터가 될 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;이중나선&lt;/b&gt; 형태가 일반적이지만, 분석할 때는 일단 1가닥(5&amp;rsquo;&amp;rarr;3&amp;rsquo; 방향 서열)으로 표현하는 경우가 많습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;RNA 데이터&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;mRNA, miRNA, lncRNA 등 다양한 종류가 존재하며, 보통 &lt;b&gt;단일가닥(Single-stranded)&lt;/b&gt; 구조.&lt;/li&gt;
&lt;li&gt;2차 구조(부분적 스템-루프, 염기쌍 형성)와 3차 구조가 존재할 수 있으나, DNA에 비해 &lt;b&gt;역동적&lt;/b&gt;이고 변형이 많습니다.&lt;/li&gt;
&lt;li&gt;RNA-Seq(NGS)를 통해 세포 내에서 발현된 전사체(Transcriptome)를 &amp;ldquo;짧은 리드&amp;rdquo; 형태로 얻은 뒤, 이를 &lt;b&gt;어셈블리&lt;/b&gt;하거나 &lt;b&gt;유전자의 mRNA 발현량&lt;/b&gt;을 측정하는 용도로 사용합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;스케일의 차이&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;Genome&lt;/b&gt;은 전체 규모가 매우 큰 반면, 연구자가 실제로 &lt;b&gt;분석&amp;middot;조작&lt;/b&gt;하려는 &lt;b&gt;DNA/RNA&lt;/b&gt;는 특정 유전자(수 kb) 또는 특정 영역 중심으로 접근하는 경우가 많습니다.&lt;/li&gt;
&lt;li&gt;RNA의 경우, 단백질 코딩 길이가 짧으면 수백&lt;s&gt;수천 bp(mRNA), 비코딩 RNA는 수십&lt;/s&gt;수백 nt 정도로 짧기도 합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;구조적 특징&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;DNA: 디옥시리보스(2&amp;rsquo;-H) 당, 염기 A/T/G/C, 2중가닥이 기본.&lt;/li&gt;
&lt;li&gt;RNA: 리보스(2&amp;rsquo;-OH) 당, 염기 A/U/G/C, 주로 단일가닥(부분적 이중가닥 형성 가능), 더 다양하고 역동적인 입체구조.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%;&quot; border=&quot;1&quot; width=&quot;1104&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;background-color: #c0d1e7;&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #000000;&quot;&gt;구분&lt;/span&gt;&lt;/b&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;background-color: #c0d1e7;&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #000000;&quot;&gt;DNA&lt;/span&gt;&lt;/b&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;background-color: #c0d1e7;&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #000000;&quot;&gt;RNA&lt;/span&gt;&lt;/b&gt;&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;background-color: #c0d1e7;&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #000000;&quot;&gt;단백질 (Protein)&lt;/span&gt;&lt;/b&gt;&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;생물학적 역할&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;유전 정보 저장, 전달&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;유전 정보 전달, 유전자 발현 조절 및 단백질 합성 중간 매개&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;세포 내 생명 현상 직접 수행 (효소작용, 신호전달, 구조적 역할 등)&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;기본 구성 단위&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;A, T, G, C&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;A, U, G, C&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;20종의 아미노산 (Amino Acid)&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;데이터 구조적 특징&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;1차원 서열 정보&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;1차원 서열 정보&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;1차원 서열 및 3차원 입체 구조&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;생물학적 데이터 예시&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Genome 시퀀스 데이터&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- RNA-seq (발현량 데이터)&lt;/span&gt;&lt;br /&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- 전사체(transcriptome)&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- 아미노산 서열&lt;/span&gt;&lt;br /&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- PDB 단백질 구조 데이터&lt;/span&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td width=&quot;276&quot; height=&quot;39&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;데이터 분석 목적&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-변이 분석&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-유전체 연관 연구(GWAS)&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-SNP 분석&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-유전자 발굴&lt;/span&gt;&lt;/div&gt;
&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;- 유전자 발현 분석&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; - Alternative splicing&amp;nbsp;&amp;nbsp; - RNA 변형 분석&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; - 질병 연관성 분석&lt;/span&gt;&lt;/td&gt;
&lt;td width=&quot;276&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-&amp;nbsp; 단백질 구조 예측&lt;/span&gt;&lt;br /&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-기능 예측&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-약물 결합 예측&lt;/span&gt;&lt;/div&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;-구조 기반 약물 설계&lt;/span&gt;&lt;/div&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;왜 Genome&amp;middot;단백질 수준에서는 생성 모델 연구가 활발하고, DNA/RNA 수준은 상대적으로 덜 활발한가?&lt;/h3&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;단백질 구조&amp;middot;설계 분야의 배경&lt;/h3&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;풍부한 구조 데이터(PDB 등)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Protein Data Bank(PDB)에 축적된 단백질 3D 구조가 19만 건 이상 존재하고, &lt;b&gt;AlphaFold2&lt;/b&gt; 등으로 예측된 구조도 대규모 공개됨.&lt;/li&gt;
&lt;li&gt;이렇게 쌓인 방대한 3차원 구조 데이터가 &lt;b&gt;구조 기반 생성 모델&lt;/b&gt;(RF Diffusion 등)을 훈련하는 데 큰 자원이 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;의약&amp;middot;산업적 수요&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;의약품 타겟&lt;/b&gt; 또는 &lt;b&gt;효소 설계&lt;/b&gt; 등, 단백질 구조 설계의 산업적 가치가 매우 높습니다.&lt;/li&gt;
&lt;li&gt;따라서 &lt;b&gt;단백질 생성 모델&lt;/b&gt;(특히 구조&amp;middot;기능 설계)은 투자가 많고, 빠른 발전을 보이게 되었습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;상대적으로 명확한 품질 평가 지표&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;단백질의 &amp;ldquo;접힘(folding) 안정성&amp;rdquo;, &amp;ldquo;결합 에너지&amp;rdquo;, &amp;ldquo;효소 반응성&amp;rdquo; 등 &lt;b&gt;물리&amp;middot;화학적으로 정의된 스코어&lt;/b&gt;(Rosetta 등)가 존재.&lt;/li&gt;
&lt;li&gt;모델이 생성한 구조를 평가하고 피드백하기 용이하여, &lt;b&gt;Diffusion 모델&lt;/b&gt;을 포함한 생성적 접근이 빠르게 발전했습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;단백질(Protein)에 집중되는 이유&lt;/h3&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;방대한 구조 데이터(PDB 등) 확보&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;실험적으로 결정된 단백질 3D 구조 + AlphaFold2 예측 구조가 대규모로 공개되어 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;3차원 구조&lt;/b&gt;가 명확하게 정리&amp;middot;표준화된 형태로 쌓여 있어, &lt;b&gt;RF Diffusion&lt;/b&gt; 등 생성 모델 학습에 큰 자원이 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;의약&amp;middot;산업적 가치는 매우 높음&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;단백질은 효소, 항체, 의약품 타깃으로 산업적 수요가 막대합니다.&lt;/li&gt;
&lt;li&gt;투자&amp;middot;연구가 활발하며, 새로운 단백질(기능/안정성 향상 등)을 설계&amp;middot;생성하는 연구 필요가 큽니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;명확한 물리&amp;middot;화학적 품질 평가 지표&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;접힘(folding) 안정성, 결합 에너지, 효소 활성도 등 &lt;b&gt;측정 가능&lt;/b&gt;한 스코어가 존재합니다.&lt;/li&gt;
&lt;li&gt;모델이 생성한 구조를 Rosetta 등으로 검증해 &lt;b&gt;피드백 루프&lt;/b&gt;를 빠르게 돌릴 수 있어, 연구 개발이 용이합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;단백질 3차원 구조에 잘 맞는 Diffusion 기법&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;단백질은 고정된 형태로 폴딩되므로, &lt;b&gt;3D 좌표(백본, 원자) 기반의 확산 모델&lt;/b&gt;을 적용하면 곧바로 의미 있는 결과를 얻을 수 있습니다.&lt;/li&gt;
&lt;li&gt;이 점이 RF Diffusion의 빠른 발전으로 이어졌습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;단백질&lt;/b&gt;은 &lt;b&gt;풍부한 3D 구조 데이터&lt;/b&gt;, &lt;b&gt;명확한 물리&amp;middot;화학적 평가 지표&lt;/b&gt;, &lt;b&gt;높은 산업적 가치&lt;/b&gt; 때문에 &lt;b&gt;Diffusion 모델&lt;/b&gt;을 비롯한 생성 모델이 &lt;b&gt;빠르게 성장&lt;/b&gt;했습니다.&lt;/li&gt;
&lt;li&gt;반면 &lt;b&gt;DNA/RNA&lt;/b&gt;는 &lt;b&gt;1차원 서열 + 복합적 기능&lt;/b&gt;, &lt;b&gt;구조 데이터 부족&lt;/b&gt;, &lt;b&gt;검증 난이도&lt;/b&gt;, &lt;b&gt;시장 수요&lt;/b&gt; 등의 제약으로 인해, 아직은 &lt;b&gt;단백질만큼 Diffusion 모델 연구가 폭발적으로 진행되지 못한 상황&lt;/b&gt;입니다.&lt;/li&gt;
&lt;li&gt;그러나 &lt;b&gt;mRNA 치료제, 합성생물학&lt;/b&gt; 등 분야가 발전함에 따라, &lt;b&gt;DNA/RNA 확산 모델&lt;/b&gt;도 앞으로 점차 주목받고 연구가 늘어날 가능성이 높습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 Bioinformatics 분야에서는 어떤 데이터를 다루는지 알아보겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;표를 보면 DNA RNA는 주로 1차원 시퀀스 기반 데이터를 다루며, 유전자 발현 및 변이를 통해 생물학적 현상을 분석합니다. 단백질은 1차원 시퀀스 뿐만 아니라 3차원 입체 구조 정보가 매우 중요하고 구조와 기능이 강력한 상관관계를 갖습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Alphafold3&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;알파폴드 1,2&lt;/b&gt; 는 간략하게 말씀드리면 1차원 서열로 구성된 단백질이 입력으로 들어왔을 때, 이것들이 어떻게 접히면서 어떤 구조가 되는지 예측하는 수준에 머물렀다면 이번에 &lt;i&gt;&lt;b&gt;알파폴드3는 구조를 예측하는 것 뿐만 아니라 단백질이 어떤 DNA와 결합할 수 있는지까지 예측&lt;/b&gt;&lt;/i&gt;하는 그런 조금 더 업그레이드 된 모델이라고 볼 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;알파폴드 1,2의 경우 단백질이 어떤 분자로 구성되어 있는지에 대한 설계도를 주면 단백질이 이러한 형상으로 생겼을 것이다 라고 예측 모델로 예측을 해주는 것입니다. 그런데 단백질 구조만 예측하는 것이 중요한게 아니라 어떤 DNA와 어떻게 상호작용 하는지 혹은 단백질이 리간드와 결합되었을 때 어떻게 변하는지에 대해서도 신약 개발에 있어서 매우 중요합니다. 알파폴드 3가 이제 그런 역할도 할 수 있는 모델이라고 보시면 될 것 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;638&quot; data-origin-height=&quot;1039&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bTO7yP/btsMZ3pJEir/Y88BI7KKZh81cjYF2bsLNk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bTO7yP/btsMZ3pJEir/Y88BI7KKZh81cjYF2bsLNk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bTO7yP/btsMZ3pJEir/Y88BI7KKZh81cjYF2bsLNk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbTO7yP%2FbtsMZ3pJEir%2FY88BI7KKZh81cjYF2bsLNk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;638&quot; height=&quot;1039&quot; data-origin-width=&quot;638&quot; data-origin-height=&quot;1039&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선&lt;b&gt; 단백질의 구조&lt;/b&gt;에 대해서 알아야 하는데요&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사진의 가장 위에 있는 것을 보시면 아미노산이 1차원적으로 연결되어 있습니다. (primary)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저기에서 아미노산을 제가 원하는 종류로 바꿀 수 있습니다. 그리고 실제 상온이나 물에 넣게 되면 저 구조가 접히기 시작해요. 아래에 보면 2차구조 secondary처럼 저렇게 바뀌게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저런 2차 구조들이 여러가지 그룹으로 묶이게 되면서 더 복잡한 3차 구조(terti)가 만들어져요. 이런 3차 구조들이 모여서 마지막에 프로틴 구조인 마지막 모습이 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 첫 번째부터 마지막 단계까지 예측하는 모델이 알파폴드 1이랑 2 였습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;알파폴드3의 경우에는 저러한 단백질과 인풋 값으로 다른 DNA 혹은 리간드를 넣을 때 어떻게 결합하는지를 밝혀내는 일을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Alphafold3 Architecture&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단백질 구조나 생명 공학에서의 시사점 등 해당 논문에 대해서는 많은 의견이 있습니다. 하지만 이번 발표에서는 머신러닝 관점에서 알파폴드의 모델에 대해서 리뷰하려고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선, 모델의 목표가 이전 AlphaFold 모델과는 조금 다르다는 점에 주목할 필요가 있습니다. AlphaFold2(AF2)는 단백질 단일 서열에 대한 3차원 구조를 예측했고, &lt;b&gt;AlphaFold-Multimer&lt;/b&gt;는 여러 단백질이 복합체를 이루는 구조를 예측했습니다. 반면 AlphaFold3(AF3)는 &lt;b&gt;단백질뿐 아니라, 다른 단백질&amp;middot;핵산(DNA/RNA)&amp;middot;소분자&lt;/b&gt; 등이 함께 존재하는 복합체 구조도 &lt;b&gt;서열 정보만으로&lt;/b&gt; 예측합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이전 AF 모델들은 &lt;b&gt;표준 아미노산&lt;/b&gt;(20가지)만 다루면 됐지만, 이제 &lt;b&gt;AF3&lt;/b&gt;는 훨씬 다양한 입력 타입(예: 핵산 염기, 비표준 잔기, 소분자 등)을 표현해야 하므로, &lt;b&gt;더 복잡한 피처화/토큰화&lt;/b&gt; 방식을 갖습니다. 해당 토큰화 방식을 별도 섹션에서 다루겠지만, 여기서는 일단 &lt;b&gt;&amp;ldquo;토큰(token)은 단백질의 경우 단일 아미노산, 핵산의 경우 단일 뉴클레오타이드, 혹은 (표준 아미노산/뉴클레오타이드에 속하지 않는) 개별 원자&lt;/b&gt;를 의미한다&amp;rdquo;고 생각하시면 됩니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;497&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/o5y1T/btsM2cFsotS/MBaz1SmzExN7O14vOlBuoK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/o5y1T/btsM2cFsotS/MBaz1SmzExN7O14vOlBuoK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/o5y1T/btsM2cFsotS/MBaz1SmzExN7O14vOlBuoK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fo5y1T%2FbtsM2cFsotS%2FMBaz1SmzExN7O14vOlBuoK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1725&quot; height=&quot;497&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;497&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모델은 크게 세 가지 섹션으로 나눌 수 있습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;입력 준비 (Input Preparation)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;사용자가 예측하고자 하는 분자들의 &lt;b&gt;서열&lt;/b&gt;을 제공하면, 이를 &lt;b&gt;숫자 텐서&lt;/b&gt; 형태로 임베딩해야 합니다.&lt;/li&gt;
&lt;li&gt;또한, 모델은 사용자가 제공한 분자들과 유사한 구조를 지닐 것으로 &lt;b&gt;추정되는 다른 분자&lt;/b&gt;들의 정보를 검색해서, 이들도 &lt;b&gt;자체적으로 텐서&lt;/b&gt;로 임베딩합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;표현 학습 (Representation Learning)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;앞 단계에서 생성된 &lt;b&gt;Single&lt;/b&gt; 텐서와 &lt;b&gt;Pair&lt;/b&gt; 텐서를 입력으로 받아, 다양한 형태의 &lt;b&gt;어텐션&lt;/b&gt; 기법을 적용하여 이들 표현을 업데이트합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;구조 예측 (Structure Prediction)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;업데이트된 &lt;b&gt;Single/Pair&lt;/b&gt; 표현과, 1단계에서 준비된 원본 입력을 바탕으로 **조건부 확산(conditional diffusion)**을 사용해 최종 구조를 예측합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Single &amp;amp; Pair&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1206&quot; data-origin-height=&quot;913&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/l4ePU/btsM17D8upI/vNeCK5sobwvihL0cKGrj20/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/l4ePU/btsM17D8upI/vNeCK5sobwvihL0cKGrj20/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/l4ePU/btsM17D8upI/vNeCK5sobwvihL0cKGrj20/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fl4ePU%2FbtsM17D8upI%2FvNeCK5sobwvihL0cKGrj20%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1206&quot; height=&quot;913&quot; data-origin-width=&quot;1206&quot; data-origin-height=&quot;913&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;AF 모델 전반에서 단백질 복합체는 크게 두 가지 형태로 표현됩니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Single 표현 : 복합체 내 모든 &amp;lsquo;토큰&amp;rsquo;을 나타냅니다. (ex.아미노산, 원자)&lt;/li&gt;
&lt;li&gt;pair 표현 : 복합체 내 아미노산(또는 원자) 쌍 사이의 관계(ex. 거리, 잠재적 상호작용 등)를 표현합니다&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 각각은 &lt;i&gt;원자(atom) 단위나 토큰(token) 단위 중 하나로 다룰 수 있으며&lt;/i&gt; AF3 논문에서 정의된 이름과 색상을 사용해서 저렇게 시각적으로 구분해서 사용할 예정입니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;가중치(Weights)&lt;/b&gt;는 생략하고, 실제로는 활성값(Activation)의 형태 변화만 시각화합니다. &lt;br /&gt;각 활성 텐서에는 논문에서 사용한 차원 이름을 그대로 라벨링하며, 다이어그램의 크기도 (정확하진 않더라도) 해당 차원의 증가/감소를 대략적으로 반영하도록 그렸습니다. 가능하면, (이 다이어그램뿐 아니라 모든 다이어그램에서) 텐서 위에 표시된 이름이 AF3 보충자료에서 쓰인 텐서 이름과 동일하도록 유지했습니다.&lt;br /&gt;보통 텐서는 모델을 거치면서 같은 이름을 유지하지만, 어떤 경우에는 처리 단계별로 다른 버전을 구분하기 위해 이름을 달리 쓸 때도 있습니다. 예를 들어, 원자 단위 single 표현에서는 초기 표현을 c라 하고, Atom Transformer를 거쳐 업데이트된 표현을 q라 부르는 식입니다. &lt;br /&gt;설명을 단순화하기 위해, 도식에 등장하는 대부분의 LayerNorm은 생략했으나, 실제 모델에서는 거의 모든 단계에서 사용됩니다. &lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;사용자가 AF3에 입력하는 실제 데이터&lt;/b&gt;는 기본적으로 &lt;b&gt;하나의 단백질 서열&lt;/b&gt;이며, 필요에 따라 &lt;b&gt;다른 분자들&lt;/b&gt;(핵산, 소분자 등)을 추가로 제공할 수 있습니다. 본 섹션의 목표는 이들 서열을 아래 그림과 같이, 모델 메인 트렁크로 들어가기 위한 &lt;b&gt;6가지 텐서&lt;/b&gt;로 변환하는 것입니다. 이 텐서들은 주석을 달아놓은 것과 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;이 섹션의 최종 결과&lt;/b&gt;로 &lt;b&gt;원자(atom) 단위&lt;/b&gt; 표현(q, p)뿐 아니라, 해당 원자 정보를 집계(aggregation)하여 만든 &lt;b&gt;토큰(token) 단위&lt;/b&gt; 표현(s, z)까지 모두 생성됩니다. 즉, 이 과정이 끝나면 모델은 &lt;b&gt;Single(단일) 표현&lt;/b&gt;과 &lt;b&gt;Pair(쌍) 표현&lt;/b&gt;을 각각 원자 수준과 토큰 수준 두 가지 형태로 모두 얻게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;지금 보시는 이 섹션은 총 5가지로 나뉘게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&amp;bull;s: 토큰 단위 단일(single) 표현 (token-level single representation)&lt;br /&gt;&lt;br /&gt;&amp;bull;z: 토큰 단위 쌍(pair) 표현 (token-level pair representation)&lt;br /&gt;&lt;br /&gt;&amp;bull;q: 원자 단위 단일(single) 표현 (atom-level single representation)&lt;br /&gt;&lt;br /&gt;&amp;bull;p: 원자 단위 쌍(pair) 표현 (atom-level pair representation)&lt;br /&gt;&lt;br /&gt;&amp;bull;m: MSA(다중 서열 정렬) 표현 (MSA representation)&lt;br /&gt;&lt;br /&gt;&amp;bull;t: 템플릿(template) 표현&lt;/blockquote&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1669&quot; data-origin-height=&quot;914&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bS6Qyr/btsM1KvGYrj/DQNHKceTwiYkDFlRkixGPk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bS6Qyr/btsM1KvGYrj/DQNHKceTwiYkDFlRkixGPk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bS6Qyr/btsM1KvGYrj/DQNHKceTwiYkDFlRkixGPk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbS6Qyr%2FbtsM1KvGYrj%2FDQNHKceTwiYkDFlRkixGPk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1669&quot; height=&quot;914&quot; data-origin-width=&quot;1669&quot; data-origin-height=&quot;914&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Tokenizer&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;564&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/HxtHd/btsM17D8vzd/KfJK4Hp76Zvrq9nTvzMOI0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/HxtHd/btsM17D8vzd/KfJK4Hp76Zvrq9nTvzMOI0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/HxtHd/btsM17D8vzd/KfJK4Hp76Zvrq9nTvzMOI0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FHxtHd%2FbtsM17D8vzd%2FKfJK4Hp76Zvrq9nTvzMOI0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1725&quot; height=&quot;564&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;564&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫 번째는 &lt;b&gt;Tokenizer&lt;/b&gt; 입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;AF2에서는 고정된 아미노산 세트만 모델이 다뤘고, 각 아미노산마다 토큰 하나를 할당했습니다. 이 방식은 AF3에서 그대로 유지되지만, AF3가 처리할 수 있는 분자 유형이 늘어났기 때문에 추가 토큰들이 도입되었습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;표준 아미노산&lt;/b&gt;: 1 토큰 (AF2 방식과 동일)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;표준 뉴클레오타이드&lt;/b&gt;(DNA/RNA 염기): 1 토큰&lt;/li&gt;
&lt;li&gt;&lt;b&gt;비표준 아미노산/뉴클레오타이드&lt;/b&gt;(메틸화된 뉴클레오타이드, 번역 후 변형이 일어난 잔기 등): 원자별로 각각 1 토큰&lt;/li&gt;
&lt;li&gt;&lt;b&gt;그 외 분자(리간드, 이온 등)&lt;/b&gt;: 원자별로 각각 1 토큰&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이로 인해, 어떤 토큰은 &lt;b&gt;여러 개의 원자&lt;/b&gt;(예: 표준 아미노산)와 연결되지만, 다른 토큰은 &lt;b&gt;단 하나의 원자&lt;/b&gt;(예: 리간드 내 특정 원자)에만 대응될 수 있습니다. 예를 들어, 표준 아미노산이 35개 들어 있는 단백질(아마도 600개 이상의 원자가 존재)이라면, 이 단백질은 &lt;b&gt;토큰 35개&lt;/b&gt;로 표현됩니다. 반면 35개의 원자를 가진 어떤 리간드는, 각각의 원자에 1토큰씩 할당되어 &lt;b&gt;역시 35개 토큰&lt;/b&gt;이 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Retrieval (Create MSA and Templates)&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span data-token-index=&quot;0&quot;&gt;AF3에서 매우 초기 단계에 수행되는 핵심 작업 중 하나&lt;/span&gt;는, 마치 언어 모델의 &lt;b&gt;RAG(Retrieval Augmented Generation)&lt;/b&gt;와 유사한 방식으로, 우리의 관심 대상인 단백질 또는 RNA 서열과 &lt;span data-token-index=&quot;2&quot;&gt;유사한 서열&lt;/span&gt;을 찾아서 (&lt;span data-token-index=&quot;4&quot;&gt;MSA&lt;/span&gt;라 부르는 다중 서열 정렬에 모으고), 거기에 대응하는 &lt;span data-token-index=&quot;6&quot;&gt;구조 정보&lt;/span&gt;(&amp;ldquo;템플릿&amp;rdquo;)가 있으면 이를 추가 입력으로 활용하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇게 찾은 서열과 구조가 모델에서 각각 &lt;b&gt;&lt;span data-token-index=&quot;8&quot;&gt;m(MSA)&lt;/span&gt;, t(템플릿)&lt;/b&gt;라는 입력으로 주어집니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1940&quot; data-origin-height=&quot;413&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cxQCG4/btsM2zmQ4Gm/yI2B00IvKaKdJZ2ldKg000/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cxQCG4/btsM2zmQ4Gm/yI2B00IvKaKdJZ2ldKg000/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cxQCG4/btsM2zmQ4Gm/yI2B00IvKaKdJZ2ldKg000/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcxQCG4%2FbtsM2zmQ4Gm%2FyI2B00IvKaKdJZ2ldKg000%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1940&quot; height=&quot;413&quot; data-origin-width=&quot;1940&quot; data-origin-height=&quot;413&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style3&quot;&gt;&lt;br /&gt;&lt;b&gt;MSA(다중 서열 정렬)의 이점&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;서로 다른 종(種)에 존재하는 상동(homologous) 단백질들은 서열&amp;middot;구조 면에서 상당히 유사한 경우가 많습니다. 단백질 하나의 특정 위치(열, column)가 진화 과정에서 어떻게 바뀌었는지 보면, 그 위치에 어떤 아미노산이 중요한지, 혹은 서로 상호작용하는 아미노산들이 어떻게 공변(covary)하는지를 알 수 있습니다. 이미 AlphaFold2 시절부터, MSA가 단백질의 단일 서열에 비해 훨씬 풍부한 &amp;lsquo;보존&amp;middot;공변 정보&amp;rsquo;를 제공한다는 것이 밝혀졌습니다. &lt;br /&gt;&lt;br /&gt;&lt;b&gt;구조 템플릿(template)의 활용&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;유사한 서열을 지닌 단백질에 대해 이미 결정된 실험 구조가 있다면, 이는 해당 단백질(우리가 예측하고자 하는 단백질)의 구조를 추론하는 중요한 단서가 됩니다. 완전한 전체 구조를 찾는 대신, 단백질 체인 하나씩 분리하여 유사도를 검사하고, 이 중 상위 품질 구조 4개 정도를 추려 &amp;ldquo;템플릿&amp;rdquo;으로 삼습니다. 이는 전통적인 호모로지 모델링(homology modeling)과 유사한 방식입니다. &lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;템플릿은 어떻게 표현되는가?&lt;/h3&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;중심 원자(center atom) 기준 거리 행렬&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;템플릿 구조가 확보되면, 해당 체인의 각 토큰(아미노산 or 뉴클레오타이드 등)에 대해 &amp;ldquo;중심 원자&amp;rdquo;(C&amp;alpha; 혹은 C1&amp;rsquo;)를 골라,&lt;/li&gt;
&lt;li&gt;&lt;b&gt;각 토큰 쌍 사이 유클리드 거리&lt;/b&gt;를 계산합니다.&lt;/li&gt;
&lt;li&gt;이렇게 얻은 N_token x N_token 거리 행렬을 &lt;b&gt;연속값&lt;/b&gt; 대신 &lt;b&gt;히스토그램(bin) 형태&lt;/b&gt;로 구분해 **&amp;ldquo;distogram&amp;rdquo;**으로 만든 뒤, 모델 입력에 넣습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;메타데이터 포함&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;각 토큰이 어느 체인에 속하는지, 실제 결정 구조에서 이 토큰(잔기)이 해석되었는지, 아미노산 내부 지역 거리(백본 길이 등) 같은 정보도 추가.&lt;/li&gt;
&lt;li&gt;단, 템플릿은 &lt;b&gt;체인 간 상호작용&lt;/b&gt; 정보를 포함하지 않으며(체인 A-B 거리 무시), &lt;b&gt;단일 체인 내 거리&lt;/b&gt;에 집중합니다&lt;/li&gt;
&lt;li&gt;요약하자면, &lt;b&gt;AF3&lt;/b&gt;는 &amp;ldquo;(1) 서열 기반 MSA 구성 &amp;rarr; (2) 유사 구조 템플릿 선택&amp;rdquo; 과정을 통해, &lt;b&gt;부가 정보를 풍부히 확보&lt;/b&gt;합니다.&lt;/li&gt;
&lt;li&gt;이것이 바로 m(MSA), t(템플릿)으로 모델에 입력되며, &lt;b&gt;단백질+RNA 복합체&lt;/b&gt;든 &lt;b&gt;멀티머&lt;/b&gt;든 보다 정확한 구조 예측을 지원하게 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Create Atom-Level Representations&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;q(원자 단위 single 표현)을 만드는 과정&lt;/b&gt;은 다음과 같은 단계를 거칩니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;참조 컨포머(reference conformer) 생성&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;단백질, 핵산, 리간드 각 구성성분에 대해, 미리 알려진 부분 구조(&amp;ldquo;로컬 구조&amp;rdquo;에 대한 사전 지식)를 활용해 &lt;b&gt;3D 컨포머&lt;/b&gt;를 얻습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;아미노산&lt;/b&gt;의 경우: 이미 에너지가 낮은(안정된) 컨포머가 &amp;ldquo;표준&amp;rdquo; 형태로 정해져 있어, 룩업(look-up) 방식으로 불러올 수 있습니다.&lt;/li&gt;
&lt;li&gt;*소분자(리간드 등)**의 경우: RDKit의 &lt;b&gt;ETKDGv3&lt;/b&gt; 알고리즘을 이용해 실제 단일 결합 회전 등에 기초한 3D 컨포머를 생성합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;원자 단위 특징정보 취합&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;이렇게 얻은 컨포머에서, 각 &lt;b&gt;원자&lt;/b&gt;의 상대 위치(좌표)와 &lt;b&gt;전하, 원자번호, 기타 식별 정보&lt;/b&gt; 등을 합쳐서 &lt;b&gt;행렬 c&lt;/b&gt;에 저장합니다.&lt;/li&gt;
&lt;li&gt;요약하면, &lt;b&gt;c&lt;/b&gt;에는 &amp;ldquo;원자별 공간좌표 + 물리화학 속성&amp;rdquo;이 들어 있다고 보면 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;원자 단위 pair 표현 p 초기화&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;원자들 간 상대 거리 정보를 &lt;b&gt;p&lt;/b&gt;에 저장하는데, &lt;b&gt;컨포머를 통해 알 수 있는 거리&lt;/b&gt;만 초기화하고,&lt;/li&gt;
&lt;li&gt;아직 알 수 없는 거리(토큰 간 상호작용 등)는 마스크( &lt;b&gt;v&lt;/b&gt; )로 처리하여 배제합니다(초기 단계에서는 &amp;ldquo;몰라&amp;rdquo;로 두는 셈).&lt;/li&gt;
&lt;li&gt;거리의 역제곱(inverse square)에 대한 임베딩을 적용하고, &lt;b&gt;cl&lt;/b&gt;, &lt;b&gt;cm&lt;/b&gt;(추가 특징) 등을 투영(projection)한 뒤, 몇 개의 Linear layer + Residual connection을 거쳐 &lt;b&gt;p&lt;/b&gt;를 갱신합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;원자 단위 single 표현 q 복사 생성&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;초기 행렬 &lt;b&gt;c&lt;/b&gt;를 복사해 이름을 &lt;b&gt;q&lt;/b&gt;라고 붙입니다.&lt;/li&gt;
&lt;li&gt;이후 &lt;b&gt;q&lt;/b&gt;가 곧바로 업데이트될 주된 원자 단위(single) 표현이며,&lt;/li&gt;
&lt;li&gt;&lt;b&gt;c&lt;/b&gt;는 나중에 참조용으로 다시 쓰이므로, 삭제되지 않고 저장해 둡니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정리하면, &lt;b&gt;각 분자&lt;/b&gt;(아미노산&amp;middot;핵산&amp;middot;소분자)의 &lt;b&gt;참조 컨포머&lt;/b&gt;를 활용해 원자별 좌표&amp;middot;속성을 모으고, 이를 기반으로 원자 단위 pair 표현(p)를 초기화하며, 그 과정에서 생성된 정보를 &lt;b&gt;q&lt;/b&gt;로 복사해서 이후 단계에서 계속 업데이트한다는 흐름입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;컨포머(conformer)란, 분자의 원자 간 연결 상태(결합) 자체는 동일하지만, 단일 결합(single bond)을 중심으로 한 회전 각도가 달라져서 생기는 &lt;b&gt;서로 다른 3차원 구조&lt;/b&gt;를 말합니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;예: 에탄(탄소-탄소 단일 결합)처럼 단일 결합을 가진 분자는, 그 결합을 축으로 원자가 회전해 &lt;b&gt;여러 가지 3D 배치&lt;/b&gt;가 가능하고, 이 각각이 곧 &amp;lsquo;컨포머&amp;rsquo;입니다.&lt;/li&gt;
&lt;li&gt;보통 분자는 결합 길이&amp;middot;각도 등 큰 변화 없이, &lt;b&gt;단일 결합의 회전&lt;/b&gt;만으로도 3D 형태가 달라질 수 있기 때문에, 에너지가 낮은(안정된) 특정 배치를 찾아 &amp;ldquo;표준 컨포머&amp;rdquo;로 사용하거나, 시뮬레이션에서 다양한 컨포머를 생성해 어떤 구조가 가장 안정적인지 탐색하기도 합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1636&quot; data-origin-height=&quot;894&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/l0jU1/btsM17RGr87/ctivP13d0YHvCTGnougffk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/l0jU1/btsM17RGr87/ctivP13d0YHvCTGnougffk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/l0jU1/btsM17RGr87/ctivP13d0YHvCTGnougffk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fl0jU1%2FbtsM17RGr87%2FctivP13d0YHvCTGnougffk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1636&quot; height=&quot;894&quot; data-origin-width=&quot;1636&quot; data-origin-height=&quot;894&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Update Atom-Level Representations (Atom Transformer)&lt;/span&gt;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1440&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/E6bLr/btsM03pvs1v/mqcYhk7qWyMcgbXEv0I710/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/E6bLr/btsM03pvs1v/mqcYhk7qWyMcgbXEv0I710/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/E6bLr/btsM03pvs1v/mqcYhk7qWyMcgbXEv0I710/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FE6bLr%2FbtsM03pvs1v%2FmqcYhk7qWyMcgbXEv0I710%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1440&quot; height=&quot;714&quot; data-origin-width=&quot;1440&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;앞서 &lt;b&gt;q&lt;/b&gt;(모든 원자를 표현하는 single)와 &lt;b&gt;p&lt;/b&gt;(원자 쌍을 표현하는 pair)를 생성했습니다. 이제 &lt;b&gt;주변 원자 정보&lt;/b&gt;를 활용해 이들을 업데이트해야 하는데, 이 때 &lt;b&gt;Atom Transformer&lt;/b&gt;라는 모듈을 사용합니다. Atom Transformer는 여러 블록으로 구성되며, 각 블록에서는 &lt;b&gt;p&lt;/b&gt;(pair 표현)와 &lt;b&gt;q&lt;/b&gt;의 초기 사본( &lt;b&gt;c&lt;/b&gt; )을 함께 참고하여, &lt;b&gt;q&lt;/b&gt;를 갱신합니다. 이 때 &lt;b&gt;c&lt;/b&gt;는 Attention Transformer에서 업데이트되지 않고 유지되므로, &lt;b&gt;시작 시점 표현을 &amp;ldquo;잔류(residual) 연결&amp;rdquo;&lt;/b&gt; 방식으로 계속 제공한다고 볼 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Atom Transformer는 전반적으로 표준 Transformer 구조(레이어 정규화&amp;rarr;어텐션&amp;rarr;MLP)를 따르지만, &lt;b&gt;c&lt;/b&gt;와 &lt;b&gt;p&lt;/b&gt;(이차적 입력, &amp;ldquo;컨디셔닝&amp;rdquo; 역할)를 추가로 반영한다는 점이 특이합니다. 또한 &lt;b&gt;Attention&lt;/b&gt; 후에 별도의 &amp;lsquo;게이트(gating)&amp;rsquo; 단계를 삽입해, 모델이 배운 정보를 어느 정도 반영할지 선택하도록 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음으로 이 4단계를 순서대로 살펴봅니다:&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;^ 즉, &amp;ldquo;초기 사본&amp;rdquo;이라 함은 &lt;b&gt;&amp;ldquo;q가 업데이트되기 전에, 만들자마자 복제해 둔 q의 원본&amp;rdquo;&lt;/b&gt; 정도로 이해하면 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;1. Adaptive &lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;LayerNorm&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1999&quot; data-origin-height=&quot;643&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/GK6kF/btsM2WITcAH/qk4TWPtCChEDNNfP440Wc0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/GK6kF/btsM2WITcAH/qk4TWPtCChEDNNfP440Wc0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/GK6kF/btsM2WITcAH/qk4TWPtCChEDNNfP440Wc0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FGK6kF%2FbtsM2WITcAH%2Fqk4TWPtCChEDNNfP440Wc0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1999&quot; height=&quot;643&quot; data-origin-width=&quot;1999&quot; data-origin-height=&quot;643&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Adaptive LayerNorm (AdaNorm)&lt;/b&gt;:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AdaNorm은 이를 확장하여, 이 파라미터(&amp;gamma;, &amp;beta;)를 &lt;b&gt;두 번째 입력&lt;/b&gt;(즉, Atom Transformer에서는 &lt;b&gt;c&lt;/b&gt;)을 바탕으로 &lt;b&gt;동적으로 예측&lt;/b&gt;합니다.&lt;/li&gt;
&lt;li&gt;즉, 단순 고정값이 아니라, &lt;b&gt;c&lt;/b&gt;에 따라 &amp;ldquo;q의 평균&amp;middot;표준편차를 어떻게 보정할지&amp;rdquo;가 결정되는 방식입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;기존 LayerNorm은 입력 행렬(예: q)에 대해, 채널별 스케일(&amp;gamma;)과 바이어스(&amp;beta;)를 학습된 상수로 적용합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;2. Attention with Pair Bias&lt;/span&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원자 단위 어텐션(Atom-level Attention)은, 말 그대로 &lt;b&gt;q&lt;/b&gt;(원자 시퀀스)에서 쿼리(query), 키(key), 밸류(value)를 뽑아 &lt;b&gt;Self-Attention&lt;/b&gt;을 수행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다만, 여기에는 세 가지 중요한 차이가 있습니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;Pair-Biasing&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;쿼리&amp;middot;키 내적(dot product) 결과에, pair 표현(p)에서 선형 변환한 값을 &amp;lsquo;바이어스&amp;rsquo;로 더해, &lt;b&gt;어텐션 가중치&lt;/b&gt;를 조정합니다.&lt;/li&gt;
&lt;li&gt;이를 통해, &lt;b&gt;원자 쌍 간 결합 강도가 높은(p에서 강조) 원자들&lt;/b&gt;끼리는 어텐션이 더 크게 작동합니다.&lt;/li&gt;
&lt;li&gt;단, 이 과정은 &lt;b&gt;p&lt;/b&gt;가 q로부터 업데이트되는 것이 아니라, &amp;ldquo;p&amp;rarr;q로 단방향으로&amp;rdquo; 영향을 주는 것임에 유의하세요.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Gating&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;쿼리&amp;middot;키&amp;middot;밸류 외에, &lt;b&gt;q&lt;/b&gt;를 추가로 한 번 더 투영해 시그모이드(0~1 범위)로 통과시키는 &amp;ldquo;게이트&amp;rdquo;를 만듭니다.&lt;/li&gt;
&lt;li&gt;어텐션 결과를 최종적으로 합칠 때, 이 게이트로 결과를 곱해주어 &amp;ldquo;어느 정도 정보만 반영&amp;rdquo;하도록 합니다.&lt;/li&gt;
&lt;li&gt;이는 &lt;b&gt;LSTM&lt;/b&gt;의 게이트와 비슷한 아이디어로, Residual 스트림에 실질적으로 어느 부분을 남길지 선택하게 해 줍니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Sparse Attention&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;원자 수가 많을 수 있으므로, &lt;b&gt;모든 원자&amp;rarr;모든 원자&lt;/b&gt; 풀 어텐션을 돌리면 연산량이 매우 큽니다.&lt;/li&gt;
&lt;li&gt;대신 &amp;ldquo;Sequence-local atom attention&amp;rdquo;이라는 &lt;b&gt;스파스 어텐션&lt;/b&gt;을 써서, 32개 원자 단위 그룹이 한 번에 128개의 다른 원자를 주로 &amp;lsquo;참조(attend)&amp;rsquo;하는 식으로 제한합니다.&lt;/li&gt;
&lt;li&gt;이는 최근 대용량 모델에서 흔히 사용하는 스파스 어텐션 기법과 유사합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1800&quot; data-origin-height=&quot;867&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Dg6Qo/btsM18JOLss/djBDqKwoqegRL7oTKzpNi0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Dg6Qo/btsM18JOLss/djBDqKwoqegRL7oTKzpNi0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Dg6Qo/btsM18JOLss/djBDqKwoqegRL7oTKzpNi0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FDg6Qo%2FbtsM18JOLss%2FdjBDqKwoqegRL7oTKzpNi0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1800&quot; height=&quot;867&quot; data-origin-width=&quot;1800&quot; data-origin-height=&quot;867&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;3. Conditioned Gating&lt;/span&gt;&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1328&quot; data-origin-height=&quot;714&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b0kmwS/btsM3o6fzMi/tiyQmknjJesKk6NeAKs6D1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b0kmwS/btsM3o6fzMi/tiyQmknjJesKk6NeAKs6D1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b0kmwS/btsM3o6fzMi/tiyQmknjJesKk6NeAKs6D1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb0kmwS%2FbtsM3o6fzMi%2FtiyQmknjJesKk6NeAKs6D1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1328&quot; height=&quot;714&quot; data-origin-width=&quot;1328&quot; data-origin-height=&quot;714&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;앞서 &amp;ldquo;Attention &amp;rarr; 결과&amp;rdquo; 후에 한 번 게이트를 적용했지만, &lt;b&gt;이번에는 또 다른 게이트&lt;/b&gt;를 추가로 적용합니다.&lt;/li&gt;
&lt;li&gt;다만 이번 게이트는 &lt;b&gt;c&lt;/b&gt;(처음 원자 단위 single 표현)로부터 만들어져, 다시 한 번 &amp;ldquo;현재 결과에 얼마만큼 정보를 반영할지&amp;rdquo;를 결정합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;4. Conditioned Transition&lt;/span&gt;&lt;/h4&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Transformer MLP 블록과 동일한 역할이지만, 여기서도 &lt;b&gt;Adaptive LayerNorm&lt;/b&gt;(c 기반) + &lt;b&gt;Conditional Gating&lt;/b&gt;(역시 c 기반)으로 감싸져 **&amp;ldquo;조건부(Conditioned)&amp;rdquo;**가 된다는 점이 특징입니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;SwiGLU&lt;/b&gt; 활성함수를 사용:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF2에서는 ReLU 기반 Transition을 썼지만, AF3에서는 &lt;b&gt;SwiGLU&lt;/b&gt;로 바뀌었습니다.&lt;/li&gt;
&lt;li&gt;ReLU 대비 &lt;b&gt;Swish&lt;/b&gt;(또는 SiLU) 함수가 곱해져 더 부드러운(non-linear) 반응을 제공하며, 최근 많은 신경망 아키텍처가 채택하는 방식입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;구체적으로 ReLU 방식은 &lt;b&gt;(채널 4배 증폭)&amp;rarr;(ReLU)&amp;rarr;(원래 채널로 다운 프로젝트)&lt;/b&gt; 흐름이었으나, SwiGLU에서는 **(2개 분기 중 하나만 Swish 통과)&amp;rarr;(결과를 곱)&amp;rarr;(다운 프로젝트)**로 진행합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정리하자면, &lt;b&gt;Atom Transformer&lt;/b&gt; 블록은 위 &lt;b&gt;4단계&lt;/b&gt;(Adaptive LayerNorm &amp;rarr; Attention with Pair Bias &amp;rarr; Conditioned Gating &amp;rarr; Conditioned Transition)를 순서대로 수행하여, &lt;b&gt;q&lt;/b&gt;(원자 단위 single)를 점진적으로 업데이트합니다. 이 과정에서 &lt;b&gt;p&lt;/b&gt;(pair)와 &lt;b&gt;c&lt;/b&gt;(초기 원자 표현)는 &amp;ldquo;조건부 입력(conditional input)&amp;rdquo;로 작동하여, &lt;b&gt;원자 간 상대관계나 초기 특성&lt;/b&gt;을 적절히 반영하도록 돕습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1766&quot; data-origin-height=&quot;1054&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bRcXnt/btsM0t9zipp/3hcavafnVVpwaB2EBs8QKk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bRcXnt/btsM0t9zipp/3hcavafnVVpwaB2EBs8QKk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bRcXnt/btsM0t9zipp/3hcavafnVVpwaB2EBs8QKk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbRcXnt%2FbtsM0t9zipp%2F3hcavafnVVpwaB2EBs8QKk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1766&quot; height=&quot;1054&quot; data-origin-width=&quot;1766&quot; data-origin-height=&quot;1054&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Aggregate Atom-Level &amp;rarr; Token-Level&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;핵심 요약&lt;/b&gt;&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;원자 수준 &amp;rarr; 토큰 수준&lt;/b&gt;으로 전환
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;지금까지 AF3는 모든 데이터를 &amp;ldquo;원자 단위&amp;rdquo;로 저장했지만, &lt;b&gt;표현 학습(representation learning)&lt;/b&gt; 단계부터는 &amp;ldquo;토큰 단위&amp;rdquo;로 작업합니다.&lt;/li&gt;
&lt;li&gt;&amp;ldquo;토큰&amp;rdquo;이란, 보통 &lt;b&gt;아미노산 하나&lt;/b&gt;(표준 단백질)나 &lt;b&gt;뉴클레오타이드 하나&lt;/b&gt;(표준 핵산)에 해당합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;토큰 단위 표현 만들기&lt;/b&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;원래 &lt;b&gt;원자 단위 표현&lt;/b&gt;(128차원)을 더 큰 차원(384차원)으로 먼저 늘립니다.&lt;/li&gt;
&lt;li&gt;&amp;ldquo;같은 토큰에 속하는 원자들&amp;rdquo;의 표현을 &lt;b&gt;평균&lt;/b&gt;하여, &lt;b&gt;토큰 한 개&lt;/b&gt;에 대응되는 벡터를 만듭니다.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;이 규칙은 &lt;b&gt;표준 아미노산/뉴클레오타이드&lt;/b&gt;에만 적용되며, &lt;b&gt;비표준 분자&lt;/b&gt; 등은 이미 &amp;ldquo;원자=토큰&amp;rdquo; 형태라 변화가 없습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;MSA 정보와 결합 (sinputs)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;토큰 단위 표현에 MSA(다중 서열 정렬)에서 얻은 특징&amp;middot;통계를 &lt;b&gt;결합(concatenate)&lt;/b&gt; 합니다(있는 경우에만).&lt;/li&gt;
&lt;li&gt;이렇게 합쳐진 행렬을 &lt;b&gt;sinputs&lt;/b&gt;라 부릅니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;sinit 초기화&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;sinputs가 너무 커졌으므로, 다시 384차원으로 투영해 &lt;b&gt;sinit&lt;/b&gt;를 만듭니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;sinit&lt;/b&gt;: 모델이 다음 &amp;ldquo;표현 학습&amp;rdquo; 단계에서 실제로 업데이트할 &lt;b&gt;토큰 단위 시퀀스 표현&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;한편, &lt;b&gt;sinputs&lt;/b&gt;는 나중에 &amp;ldquo;구조 예측(Structure Prediction)&amp;rdquo; 단계에서 쓰기 위해 따로 저장해 둡니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정리하자면, &amp;ldquo;원자 단위 정보&amp;rdquo;를 모아 &amp;ldquo;토큰 단위&amp;rdquo;로 바꾼 뒤, MSA 등 부가 정보를 합쳐서 &lt;b&gt;sinit&lt;/b&gt;라는 초기 시퀀스 표현을 만든다는 과정입니다. 이후 모델의 본격적 학습(Representation Learning)에서 &lt;b&gt;sinit&lt;/b&gt;가 계속 업데이트되고, 구조 예측 단계에서 &lt;b&gt;sinputs&lt;/b&gt;가 다시 활용됩니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;517&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ctBvn5/btsM0uAzwYO/cletkKkR53p1KgsiRUiqFK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ctBvn5/btsM0uAzwYO/cletkKkR53p1KgsiRUiqFK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ctBvn5/btsM0uAzwYO/cletkKkR53p1KgsiRUiqFK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FctBvn5%2FbtsM0uAzwYO%2FcletkKkR53p1KgsiRUiqFK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1725&quot; height=&quot;517&quot; data-origin-width=&quot;1725&quot; data-origin-height=&quot;517&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 다이어그램은 &lt;b&gt;토큰 단위 Single 표현(sinit)을 어떻게 Pair 표현(z)로 확장하고, 위치 인코딩과 사용자 지정 결합 정보 등을 어떻게 추가하는지&lt;/b&gt;를 단계별로 보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2단계에서는 원자 단위 표현(c, q, p)은 잠시 제쳐 두고, 다음 섹션에서 (m과 t의 도움을 받아) &lt;b&gt;토큰 단위 표현(s와 z)을 업데이트&lt;/b&gt;하는 데 집중할 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 부분은 내용이 너무 길고 어려운 내용이 많아서 가장 중요한 부분인 MSA Module에 대해서만 보겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 섹션은 크게 Template module, MSA module, Pairformer, 반복(Repeated Blocks &amp;amp; Recycling) 이렇게 4가지로 나뉩니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1582&quot; data-origin-height=&quot;913&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/EzRvD/btsM2IqAP6F/6aWNdN8Umtg0A7cTbUmf4k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/EzRvD/btsM2IqAP6F/6aWNdN8Umtg0A7cTbUmf4k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/EzRvD/btsM2IqAP6F/6aWNdN8Umtg0A7cTbUmf4k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FEzRvD%2FbtsM2IqAP6F%2F6aWNdN8Umtg0A7cTbUmf4k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1582&quot; height=&quot;913&quot; data-origin-width=&quot;1582&quot; data-origin-height=&quot;913&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;MSA module&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 &lt;b&gt;MSA 모듈&lt;/b&gt;은 AlphaFold2의 &lt;b&gt;Evoformer&lt;/b&gt;와 매우 유사하며, 핵심 목표는 &lt;b&gt;MSA&lt;/b&gt; 표현과 &lt;b&gt;pair&lt;/b&gt; 표현을 동시에 개선하면서, 양쪽이 상호작용(cross-talk)할 수 있도록 하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;구체적으로는, 먼저 MSA와 pair 텐서를 각각 독립적으로 업데이트하는 여러 연산을 수행한 뒤, 이 두 표현 간에 정보를 교환하도록 구성되어 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가장 먼저 이루어지는 단계는, 이전에 생성된 MSA가 최대 16k 행(row)처럼 매우 클 수 있으므로, &lt;b&gt;일부 행만 샘플링&lt;/b&gt;(subsample)하여 사용한다는 점입니다. 그리고 이렇게 샘플링된 MSA 행들에, &lt;b&gt;single 표현&lt;/b&gt;(s)을 선형 변환한 버전을 추가로 더해 줍니다(병합). 이를 통해 MSA와 단일 시퀀스 정보가 조금 더 밀접하게 연결된 상태에서 이후 업데이트가 이루어지도록 하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그림에서 보면, &lt;b&gt;&amp;ldquo;inputs rep. (n,c)&amp;rdquo;&lt;/b&gt; 라고 표시된 초록색 박스(혹은 화살표)가 바로 단일 시퀀스 표현(s)이 &lt;b&gt;MSA와 결합&lt;/b&gt;될 때 들어오는 경로입니다. 다이어그램상에서는 이 선이 직접적으로 &amp;ldquo;subsample and embed&amp;rdquo; 블록(분홍색)에 더해져 MSA representation으로 이동하는 모습을 보여주는데,&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;이 &lt;b&gt;초록색 입력&lt;/b&gt;이 곧 &lt;b&gt;s&lt;/b&gt;(단일 표현)을 받아 &lt;b&gt;MSA 채널&lt;/b&gt;과 맞추기 위한 선형 변환(Projection) 과정을 내포하고 있다고 보시면 됩니다.&lt;/li&gt;
&lt;li&gt;다이어그램은 간단히 &amp;ldquo;inputs rep. (n,c) + subsample and embed&amp;rdquo;라고만 표기했지만, 실제 연산 내부에서는 &lt;b&gt;s&lt;/b&gt;를 적절히 투영(채널 매핑)하여 MSA 행렬과 합(add)하는 작업이 수행됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2002&quot; data-origin-height=&quot;589&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/wpRP0/btsM2Ymp0G2/8fm9k9Uck8zNGFiXi46T30/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/wpRP0/btsM2Ymp0G2/8fm9k9Uck8zNGFiXi46T30/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/wpRP0/btsM2Ymp0G2/8fm9k9Uck8zNGFiXi46T30/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FwpRP0%2FbtsM2Ymp0G2%2F8fm9k9Uck8zNGFiXi46T30%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2002&quot; height=&quot;589&quot; data-origin-width=&quot;2002&quot; data-origin-height=&quot;589&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Outer Product Mean&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Outer Product Mean&lt;/b&gt; 과정을 간단히 풀어 쓴 설명입니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;MSA에서 열(column) 2개를 비교&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;MSA에서 두 위치(토큰 인덱스 i, j)를 잡으면, 각 열은 여러 개의 진화적 서열(행)을 가지고 있습니다.&lt;/li&gt;
&lt;li&gt;이 두 열(ms,i와 ms,j)을 서로 비교하면, &amp;ldquo;서열 전체에서 두 위치가 어떻게 함께 변이했는지(공변&amp;middot;상관)&amp;rdquo; 같은 정보를 알 수 있게 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;각 진화적 서열마다 외적(outer product)을 구하고 평균&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;모든 진화적 서열을 순회하면서, (ms,i)와 (ms,j)에 대한 &lt;b&gt;외적&lt;/b&gt;을 구합니다.&lt;/li&gt;
&lt;li&gt;이어서 이 외적들을 &lt;b&gt;평균&lt;/b&gt;(mean) 내어, i와 j 사이를 대표하는 하나의 결과를 얻게 됩니다.&lt;/li&gt;
&lt;li&gt;외적은 &amp;ldquo;(채널 수)&amp;times;(채널 수)&amp;rdquo; 형태인데, 이를 나중에 펼쳐(flatten)서 다시 원하는 차원으로 투영(Projection)합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Pair 표현 zi,j에 반영&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;이렇게 얻은 외적 평균 결과를 zi,에 더합니다.&lt;/li&gt;
&lt;li&gt;즉, &amp;ldquo;두 위치(i, j) 간의 관계 정보&amp;rdquo;를 MSA에서 끌어와 pair 표현에 포함시키는 셈입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;의의&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;이 단계가 &amp;ldquo;진화적 서열들 간 교차 정보&amp;rdquo;를 서로 섞어주는 유일한 지점입니다.&lt;/li&gt;
&lt;li&gt;덕분에 AF2의 Evoformer에서보다 계산량을 크게 줄이면서도, i와 j 사이의 상관관계를 충분히 활용할 수 있게 했습니다.&lt;/li&gt;
&lt;li&gt;AF2에 비해 &lt;b&gt;MSA&amp;rarr;Pair&lt;/b&gt; 정보 반영을 단순화하여 효율을 높인 것이 특징입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정리하면, &lt;b&gt;Outer Product Mean&lt;/b&gt;은 &amp;ldquo;MSA의 각 열끼리(토큰 인덱스 i, j) 외적을 구해 평균을 내고, 그 결과를 pair 표현에 반영&amp;rdquo;함으로써, 두 위치의 공진화(covariation) 정보를 zi,j에 주입하는 핵심 연산입니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;내적&lt;/b&gt;은 &amp;ldquo;두 사람이 어느 정도 비슷한 취향을 갖는가&amp;rdquo;를 점수 하나로 말해 주는 것이고,&lt;/li&gt;
&lt;li&gt;&lt;b&gt;외적&lt;/b&gt;은 &amp;ldquo;A 사람의 취향 항목(예: 음식, 영화, 음악, 책 등) 각각과 B 사람의 항목 각각이 어디서 얼마나 어울리는지&amp;rdquo;를 전부 표로 만들어 놓은 것처럼, &lt;b&gt;모든 항목 쌍별 상호작용&lt;/b&gt;을 담아내는 것이라고 생각하면 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1898&quot; data-origin-height=&quot;879&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/mKZ4L/btsM2IKU86p/Bk7s3VualUMv0NtulLE55K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/mKZ4L/btsM2IKU86p/Bk7s3VualUMv0NtulLE55K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/mKZ4L/btsM2IKU86p/Bk7s3VualUMv0NtulLE55K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FmKZ4L%2FbtsM2IKU86p%2FBk7s3VualUMv0NtulLE55K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1898&quot; height=&quot;879&quot; data-origin-width=&quot;1898&quot; data-origin-height=&quot;879&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Row-wise gated self-attention using only pair bias&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; &lt;span data-token-index=&quot;0&quot;&gt;row-wise gated self attention using only pair bias&lt;/span&gt;&lt;/b&gt;는 MSA의 각 행(서열) 내에서 pair(z)가 제공하는 토큰 간 관계 정보를 바탕으로, &lt;span data-token-index=&quot;2&quot;&gt;어떤 위치끼리 주목해야 하는지&lt;/span&gt;를 결정하고, 그 결과를 게이트로 조절하여 MSA 표현을 갱신합니다. 이는 &lt;span data-token-index=&quot;4&quot;&gt;MSA가 pair 표현에서 가져온 관계 정보를 자기 자신(MSA row) 안에 반영해&lt;/span&gt;, 최종적으로 MSA가 더욱 풍부한 맥락을 갖도록 하는 단계라고 볼 수 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1788&quot; data-origin-height=&quot;568&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dGLZxk/btsM2Ymp1Bs/DLjzbXZEQmMV7XikNbrkB0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dGLZxk/btsM2Ymp1Bs/DLjzbXZEQmMV7XikNbrkB0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dGLZxk/btsM2Ymp1Bs/DLjzbXZEQmMV7XikNbrkB0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdGLZxk%2FbtsM2Ymp1Bs%2FDLjzbXZEQmMV7XikNbrkB0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1788&quot; height=&quot;568&quot; data-origin-width=&quot;1788&quot; data-origin-height=&quot;568&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Structure Prediction&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이제 구조 예측 섹션의 Diffusion 모델의 동작 방식을 보겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 섹션에서는, 토큰 수준에서 학습한 &lt;b&gt;s, z&lt;/b&gt; 표현과 모델의 초기 원자&amp;middot;토큰 표현( c, p, sinputs 등)을 이용해, 실제 3D 좌표를 &lt;b&gt;Diffusion 모델&lt;/b&gt;을 통해 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;기본 원리&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;Diffusion 모델&lt;/b&gt;은 데이터를 조금씩(여러 단계 t에 걸쳐) 무작위 노이즈로 덮어준 뒤, 모델이 &amp;ldquo;추가된 노이즈를 역으로 예측해서 제거&amp;rdquo;하도록 학습하는 방식입니다.&lt;/li&gt;
&lt;li&gt;추론 시에는 완전히 노이즈로 뒤덮인 상태( xt=T )에서 시작해, 각 단계마다 모델이 예상하는 노이즈를 제거해가며, 최종적으로 깨끗한 상태(구조)를 얻습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;AF3에서의 Diffusion&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF3가 학습하는 데이터( x )는 &lt;b&gt;원자들의 (x, y, z) 좌표&lt;/b&gt;입니다.&lt;/li&gt;
&lt;li&gt;학습 시에는 좌표에 가우시안 노이즈를 점차 많이 더하다가, 모델이 &amp;ldquo;추가된 노이즈&amp;rdquo;를 역추정하는 식으로 훈련합니다.&lt;/li&gt;
&lt;li&gt;추론 시에는 무작위 좌표에서 시작해, 매 디퓨전 스텝마다 모델이 제시하는 노이즈를 제거해나가며 최종 구조를 얻습니다.&lt;b&gt;&lt;/b&gt;&lt;b&gt;&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;AF3의 구조 예측&lt;/b&gt;은 완전히 &amp;ldquo;Atom-level 확산(diffusion)&amp;rdquo; 기법으로 새롭게 바뀌었습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;매 스텝마다 &lt;b&gt;&amp;ldquo;원자 좌표를 노이즈화&amp;rarr;모델이 노이즈를 예측해 제거&amp;rdquo;&lt;/b&gt; 과정을 거치며, &lt;b&gt;토큰 단위(s, z) 및 초기 원자 표현(c, p)&lt;/b&gt; 등의 정보를 조건(conditional)으로 활용합니다.&lt;/li&gt;
&lt;li&gt;이 4단계(토큰&amp;rarr;원자&amp;rarr;토큰&amp;rarr;원자) 루프를 거쳐, 최종적으로 &lt;b&gt;안정적인 3D 구조&lt;/b&gt;를 출력하게 됩니다.&lt;/li&gt;
&lt;li&gt;이전 AlphaFold2가 사용하던 &amp;ldquo;Invariant Point Attention&amp;rdquo; 대신, 디퓨전에서 &amp;ldquo;임의 회전&amp;middot;평행이동&amp;rdquo;을 매번 적용해 등가성을 유지하는 방식을 채택한 점도 중요한 변화입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1866&quot; data-origin-height=&quot;951&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Q4Qls/btsM2LniHgn/IWbDhhmK4HXyRWKRIYPsok/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Q4Qls/btsM2LniHgn/IWbDhhmK4HXyRWKRIYPsok/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Q4Qls/btsM2LniHgn/IWbDhhmK4HXyRWKRIYPsok/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FQ4Qls%2FbtsM2LniHgn%2FIWbDhhmK4HXyRWKRIYPsok%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1866&quot; height=&quot;951&quot; data-origin-width=&quot;1866&quot; data-origin-height=&quot;951&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1344&quot; data-origin-height=&quot;913&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cBGA8e/btsM0N00Tpc/Ba2jPIhPkUGjJDTs6InKcK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cBGA8e/btsM0N00Tpc/Ba2jPIhPkUGjJDTs6InKcK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cBGA8e/btsM0N00Tpc/Ba2jPIhPkUGjJDTs6InKcK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcBGA8e%2FbtsM0N00Tpc%2FBa2jPIhPkUGjJDTs6InKcK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1344&quot; height=&quot;913&quot; data-origin-width=&quot;1344&quot; data-origin-height=&quot;913&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Insight&lt;/span&gt;&lt;/h3&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;1. AlphaFold를 Retrieval-Augmented Generation(RAG)으로 해석하기&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;AF2&lt;/b&gt;가 처음 나왔을 당시, 추론(inference) 중에 훈련 데이터(또는 이와 유사한)를 검색해 사용하는 방식은 흔하지 않았습니다.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;예: &lt;b&gt;MSA(다중 서열 정렬) &amp;amp; 템플릿 검색&lt;/b&gt;을 통해 구조 예측.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;다른 딥러닝 분야(예: 이미지 분류)에서는 보통 추론 시 추가 검색을 하지 않는 경우가 많았습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;AF3&lt;/b&gt;는 AF2에 비해 MSA 활용도를 줄이긴 했지만, 여전히 &lt;b&gt;MSA와 템플릿&lt;/b&gt;을 추론 단계에서 사용합니다. (반면 ESMFold 등은 retrieval 없는 파라메트릭 접근)&lt;/li&gt;
&lt;li&gt;최근에는 거대 언어모델(LLM)에서도 &lt;b&gt;RAG&lt;/b&gt; 개념이 흔해졌습니다. 예: 검색 엔진 등을 활용해 최신 지식을 가져와 모델 추론에 반영.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;결론&lt;/b&gt;: AF3가 MSA/템플릿을 사용해 예측하는 방식은, 대규모 언어모델에서의 RAG와 유사한 흐름이며, 향후 추론 시 &amp;ldquo;관련 예시 직접 참조&amp;rdquo; 접근이 더 확산될 가능성이 있습니다.&lt;/p&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;2. Pair-Bias Attention&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF2, AF3에서 중요한 특징은 &lt;b&gt;Pair-Bias&lt;/b&gt;가 들어간 어텐션입니다.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;쿼리&amp;middot;키&amp;middot;밸류는 동일 소스로부터 오는 &lt;b&gt;self-attention&lt;/b&gt; 형태이되, &lt;b&gt;pair 표현&lt;/b&gt;에서 나온 추가 바이어스(term)를 주입해 &amp;ldquo;어떤 위치끼리 더 강하게 연결할지&amp;rdquo;를 결정.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;이는 &amp;ldquo;가벼운 형태의 정보 공유&amp;rdquo;로 볼 수 있으며, 완전한 크로스 어텐션보다 부담이 적습니다.&lt;/li&gt;
&lt;li&gt;단백질 분야에서는 Pair-Bias Attention이 다른 모델(예: RoseTTAFold 등)에도 일부 쓰이지만, 일반적인 NLP나 CV에서는 아직 흔치 않습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;3. Self-supervised 학습 이슈&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;ESM&lt;/b&gt; 등은 &amp;ldquo;언어모델&amp;rdquo;처럼 &lt;b&gt;자기지도(self-supervised)&lt;/b&gt; 방식으로 대규모 사전학습을 통해 MSA 없이도 구조 예측이 가능함을 보여주었습니다.&lt;/li&gt;
&lt;li&gt;AF2도 MSA 마스킹 예측을 일부 활용했으나, AF3에서는 그 부분이 제거되었습니다.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;왜 자기지도 방식(예: MSA 기반 언어모델)으로 초기화하지 않았는지 작중에서 구체적으로 언급되지 않음.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;가능성:
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;대규모 사전학습이 계산 낭비일 수 있다.&lt;/li&gt;
&lt;li&gt;소규모 MSA 모듈을 유지하면, 사전학습 임베딩보다도 실시간 MSA가 더 성능이 낫다.&lt;/li&gt;
&lt;li&gt;AF3는 아미노산뿐 아니라 DNA/RNA/리간드(하이브리드 토큰)를 다루므로, 사전학습 임베딩과 결합하기 어려웠을 수 있다.&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;4. 분류(Classification) vs 회귀(Regression)&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF2 시절부터, 거리 예측 시 &lt;b&gt;일정 구간별 binning&lt;/b&gt;(분류)과 &lt;b&gt;MSE 손실&lt;/b&gt;을 혼합 사용.&lt;/li&gt;
&lt;li&gt;분류로 접근하면, 예측이 bin 하나만 벗어나도 오답 처리된다는 점에서 &amp;ldquo;근접 but off-by-one&amp;rdquo;을 충분히 보상 못 받을 수 있음.&lt;/li&gt;
&lt;li&gt;그럼에도 불구하고, 분류 방식이 다양한 거리를 동시에 예측하는 데 있어 그레이디언트를 안정화한다는 실험적 이점이 있는 것으로 추정.&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;5. RNN 유사성(게이팅, 반복)과 재활용(Recycling)&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;게이트(gating)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF3 곳곳에 시그모이드 게이트를 두어, 정보가 Residual 스트림에 얼마나 반영될지 통제.&lt;/li&gt;
&lt;li&gt;이는 LSTM이나 GRU 같은 재발생 신경망(RNN)의 게이팅과 유사하며, 일반적인 Transformer에는 흔치 않음.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;반복 적용 및 가중치 재사용&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF3는 &lt;b&gt;동일 블록을 여러 번 반복&lt;/b&gt;(recycling)하며, 점진적으로 구조 예측을 개선.&lt;/li&gt;
&lt;li&gt;이는 LSTM이 타임스텝마다 같은 가중치를 순환적으로 사용하는 것과 유사한 아이디어.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;적응형 연산(adaptive computation)&lt;/b&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Recycling은 &amp;ldquo;입력이 어려우면 더 많은 스텝을 거치고, 쉬우면 덜 거치는&amp;rdquo; 식의 적응형 계산 체계와 맥이 닿음.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;6. Cross-distillation&lt;/h2&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;AF3에서 low-confidence 영역 처리 시 &lt;b&gt;AF2 예측 결과&lt;/b&gt;를 다시 활용(=교차 지식 증류).&lt;/li&gt;
&lt;li&gt;&amp;ldquo;이전 모델이 잘하던 부분을 새 모델이 못한다면, 그 부분만 이전 모델로부터 교정받자&amp;rdquo;라는 실용적 접근.&lt;/li&gt;
&lt;li&gt;결과적으로 AF3는 RF Diffusion 같은 새로운 기술과 AF2의 장점을 결합하는 형태.&lt;/li&gt;
&lt;/ul&gt;
&lt;hr data-ke-style=&quot;style1&quot; /&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;요약&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;AF3는 전반적으로 &lt;b&gt;AF2의 성공 요소&lt;/b&gt;(Pair-bias Attention, Recycling)와 최근 ML 트렌드(RAG, 게이팅, 반복적 구조 개선)를 적극 반영하면서도, MSA의 비중을 줄이는 등 계산 효율과 확장성을 개선한 모델입니다. 이러한 발전 방향은 대형 언어모델의 RAG, LSTM-like 게이팅, 구조 예측에서의 분류 접근 등 여러 ML 아이디어와 맞닿아 있어, 향후 딥러닝 분야에서의 적용 범위가 더 확장될 가능성이 큽니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/142</guid>
      <comments>https://minyoungxi.tistory.com/142#entry142comment</comments>
      <pubDate>Sun, 30 Mar 2025 16:51:00 +0900</pubDate>
    </item>
    <item>
      <title>[BioInformatics] NGS Data Analysis Workflow - 시퀀싱된 데이터를 파이썬으로 다뤄보자</title>
      <link>https://minyoungxi.tistory.com/141</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;NGS(Next Generation Sequencing)가 뭐지 ?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; 차세대 염기서열 분석(NGS; Next Generation Sequencing)&lt;/b&gt;이란 기존의 고전적인 염기서열 분석 방식인 Sanger Sequencing 이후 개발된 기술로, 한 번의 실험에서 수백만 개 이상의 DNA 서열을 병렬로 빠르게 읽어낼 수 있는 고속, 고효율 기술입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존의 방법은 직접 염기서열분석법이고, 분석하고자 하는 부위를 PCR 증폭해야 해서 목표 범위가 넓어질 경우 많은 시간과 노력, 비용이 소모되어 낮은 효율성을 가지고 있습니다. 하지만 &lt;b&gt;NGS는 DNA 가닥을 각각 하나씩 분석함으로써 기존의 직접 염기서열분석법에 비해 매우 빠르고 저렴하게 염기서열이 가능하다는 장점&lt;/b&gt;이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;966&quot; data-origin-height=&quot;584&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cztBa0/btsMJnUTlXd/dLm7gnfc4nYLAaLPRjwhQk/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cztBa0/btsMJnUTlXd/dLm7gnfc4nYLAaLPRjwhQk/img.webp&quot; data-alt=&quot;출처 : 쓰리빌리언 홈페이지&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cztBa0/btsMJnUTlXd/dLm7gnfc4nYLAaLPRjwhQk/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcztBa0%2FbtsMJnUTlXd%2FdLm7gnfc4nYLAaLPRjwhQk%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;585&quot; height=&quot;354&quot; data-origin-width=&quot;966&quot; data-origin-height=&quot;584&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 : 쓰리빌리언 홈페이지&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;NGS는 3가지의 종류가 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;&lt;b&gt;1. 패널 검사(Targeted Sequencing, Panels)&amp;nbsp;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원하는 유전자 부위(일부 DNA 또는 RNA)를 선별해서 분석합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다중 유전성 패널 검사의 경우, 여러 유전자가 원인이 되는 다양한 질환에서 진단율이 높아 비용 대비 효율성이 높습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전성 질환, 혈액 종양, 암 질환 등에서 널리 활용되고 있다고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size18&quot;&gt;&lt;b&gt;&lt;br /&gt;2. 엑솜 검사, 전장 엑솜 염기서열분석 (Whole Exome sequencing, WES)&lt;/b&gt;&lt;b&gt;​&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;전체 유전체 중 2만여 개에 달하는&amp;nbsp;&lt;b&gt;유전자의 단백질을 코딩하는 엑손(exon) 부위를 분석하는 것&lt;/b&gt;으로 전체 유전체의 1% 정도입니다. 질환과 연관성이 알려진 대부분의 변이는 엑손 부위에 발생하기 때문에&amp;nbsp;&lt;b&gt;소요 시간 및 분석 비용 대비 효과적인 방법&lt;/b&gt;입니다. 패널 검사의 경우 목표한 부위에 포함된 유전자 변이만 검출이 가능한데 반해 엑솜 검사에서는 예측하지 못했던 유전자 변이까지도 발견이 가능합니다.&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size18&quot;&gt;&lt;b&gt;3. 지놈 검사, 전장 유전체 염기서열분석 (Whole Genome Sequencing, WGS)&lt;/b&gt;&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;한 종의 유전 정보를 저장하는&amp;nbsp;&lt;b&gt;유전체를 전부 분석&lt;/b&gt;합니다.&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;엑솜 검사에서는 엑손과 매우 인접한 부위의 인트론(intron)에 존재하는 변이까지만 검출이 가능해서 엑손과 멀리 떨어진 부위의 인트론과 조절 부위(regulatory region)에 있는 변이까지 알아보기 위해서는 지놈 검사가 필요해요.&lt;/p&gt;
&lt;p style=&quot;color: #2b2e33; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;엑솜 검사와 지놈 검사에서는 예상했던 유전자 이외에 다른 유전자에서 예기치 못하게 돌연변이를 발견할 수 있습니다. 그렇기에&amp;nbsp;&lt;b&gt;환자가 가진 증상만으로 진단하기 어렵거나 원인 유전자가 다양하여 일반적인 패널 검사로 검사가 충분하지 못할 때&lt;/b&gt;&amp;nbsp;유용하게 사용됩니다.&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;NGS Workflow&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;801&quot; data-origin-height=&quot;251&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dETQEy/btsMJ4mYcEm/7cmKihz5j4VJGWdyMuGcGk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dETQEy/btsMJ4mYcEm/7cmKihz5j4VJGWdyMuGcGk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dETQEy/btsMJ4mYcEm/7cmKihz5j4VJGWdyMuGcGk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdETQEy%2FbtsMJ4mYcEm%2F7cmKihz5j4VJGWdyMuGcGk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;801&quot; height=&quot;251&quot; data-origin-width=&quot;801&quot; data-origin-height=&quot;251&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;시퀀싱된&lt;b&gt; FASTQ 데이터&lt;/b&gt;를 처리하는 프로세스는 아래와 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;크게 보면 Raw한 FASTQ 데이터를 받아서 품질 검사를 진행합니다(&lt;b&gt;FastQC&lt;/b&gt;).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;품질이 좋지 않다면 &lt;b&gt;Trimming&lt;/b&gt; 이라는 품질 개선 단계를 거치고 &lt;b&gt;STAR&lt;/b&gt; 기법을 사용한 Alignment 단계를 따릅니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기까지 마치면 파이썬을 통해서 발현량 등을 분석할 수 있는 데이터가 나오게 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1233&quot; data-origin-height=&quot;395&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cBdW7g/btsMHVegaLY/a6pW2QyEGnkluF2cjZKw2k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cBdW7g/btsMHVegaLY/a6pW2QyEGnkluF2cjZKw2k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cBdW7g/btsMHVegaLY/a6pW2QyEGnkluF2cjZKw2k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcBdW7g%2FbtsMHVegaLY%2Fa6pW2QyEGnkluF2cjZKw2k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1233&quot; height=&quot;395&quot; data-origin-width=&quot;1233&quot; data-origin-height=&quot;395&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;시퀀싱 완료된 데이터 형태&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;696&quot; data-origin-height=&quot;460&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/K6BwZ/btsMItnZiKK/TvshKTG17MjD6lH5JcduWK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/K6BwZ/btsMItnZiKK/TvshKTG17MjD6lH5JcduWK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/K6BwZ/btsMItnZiKK/TvshKTG17MjD6lH5JcduWK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FK6BwZ%2FbtsMItnZiKK%2FTvshKTG17MjD6lH5JcduWK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;696&quot; height=&quot;460&quot; data-origin-width=&quot;696&quot; data-origin-height=&quot;460&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- &lt;b&gt;Illumina&lt;/b&gt; 장비는 일반적으로 &lt;b&gt;FASTQ&lt;/b&gt; 형식으로 데이터 제공&lt;br /&gt;- &lt;b&gt;PacBio&lt;/b&gt; 장비는 일반적으로 &lt;b&gt;FASTQ&lt;/b&gt; 또는 &lt;b&gt;BAM&lt;/b&gt; 파일 제공&lt;br /&gt;- &lt;b&gt;Oxford Nanopore&lt;/b&gt;는 전기신호 기반 &lt;b&gt;FAST5&lt;/b&gt; 파일을 제공한 후 이를 &lt;b&gt;FASTQ&lt;/b&gt;로 변환 가능&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;FASTQ에 대해서&amp;nbsp;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;680&quot; data-origin-height=&quot;374&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dzKeS7/btsMH3pKDvV/TRpf4u8BmLgJnGX7ERVer1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dzKeS7/btsMH3pKDvV/TRpf4u8BmLgJnGX7ERVer1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dzKeS7/btsMH3pKDvV/TRpf4u8BmLgJnGX7ERVer1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdzKeS7%2FbtsMH3pKDvV%2FTRpf4u8BmLgJnGX7ERVer1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;680&quot; height=&quot;374&quot; data-origin-width=&quot;680&quot; data-origin-height=&quot;374&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;NCBI에서&amp;nbsp;제공하는&amp;nbsp;&lt;b&gt;SRA-tool&lt;/b&gt;은 데이터를 쉽게 다운로드하고 관리하는 도구입니다.&amp;nbsp;&lt;br /&gt;&lt;b&gt;FASTQ&amp;nbsp;형식&lt;/b&gt;으로 데이터를 제공하며 데이터 품질 관리 및 데이터 포맷 전환을 제공하는 기본적이고 핵심적인 도구입니다.&amp;nbsp;&lt;br /&gt;아래의&amp;nbsp;명령어를&amp;nbsp;통해&amp;nbsp;필요한&amp;nbsp;툴을&amp;nbsp;설치합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741837400696&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;# Conda로 설치 (추천)
conda install -c bioconda sra-tools

# Ubuntu
sudo apt-get install sra-toolkit&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;상적으로&amp;nbsp;설치가&amp;nbsp;끝나면&amp;nbsp;sra-tools를&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;기본적인&amp;nbsp;fastq-dump&amp;nbsp;사용&amp;nbsp;명령어는&amp;nbsp;아래와&amp;nbsp;같습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;fastq-dump [옵션] SRR_ID&lt;/i&gt;&lt;br /&gt;&lt;br /&gt;옵션은&amp;nbsp;여러가지가&amp;nbsp;있는데,&amp;nbsp;가장&amp;nbsp;많이&amp;nbsp;사용하는&amp;nbsp;옵션들에&amp;nbsp;대해서&amp;nbsp;살펴보면&amp;nbsp;다음과&amp;nbsp;같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;`--split-files`&lt;/b&gt; : Paired-end 데이터일 때 Forward와 Reverse read 분리&lt;br /&gt;&amp;nbsp; ex. `fastq-dump --split-files SRR1234567`&lt;br /&gt;&lt;b&gt;`--gzip`&lt;/b&gt; : 압축된 gz 형식으로 FASTQ 저장 (용량 절약)&lt;br /&gt;&amp;nbsp; ex. `fastq-dump --gzip SRR1234567`&lt;br /&gt;&lt;br /&gt;`fastq-dump&amp;nbsp;--split-files&amp;nbsp;--gzip&amp;nbsp;SRR1234567`&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의&amp;nbsp;명령어는&amp;nbsp;SRR1234567&amp;nbsp;이라는&amp;nbsp;일반적인&amp;nbsp;데이터를&amp;nbsp;다운로드&amp;nbsp;받을&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;명령어&amp;nbsp;입니다.&amp;nbsp;원하는&amp;nbsp;질병의&amp;nbsp;SRR은&amp;nbsp;NCBI&amp;nbsp;SRA&amp;nbsp;홈페이지(&lt;a href=&quot;https://www.ncbi.nlm.nih.gov/sra)에서&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.ncbi.nlm.nih.gov/sra)에서&lt;/a&gt;&amp;nbsp;찾을&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;812&quot; data-origin-height=&quot;64&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bLtzsx/btsMIdyYlzX/NEfCeFVVlBdO0czGSKkEBK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bLtzsx/btsMIdyYlzX/NEfCeFVVlBdO0czGSKkEBK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bLtzsx/btsMIdyYlzX/NEfCeFVVlBdO0czGSKkEBK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbLtzsx%2FbtsMIdyYlzX%2FNEfCeFVVlBdO0czGSKkEBK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;812&quot; height=&quot;64&quot; data-origin-width=&quot;812&quot; data-origin-height=&quot;64&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터를&amp;nbsp;다운받으면&amp;nbsp;저렇게&amp;nbsp;두&amp;nbsp;개의&amp;nbsp;데이터가&amp;nbsp;디렉토리에&amp;nbsp;나타납니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;이제 데이터를 분석하기 전에 FastQC &amp;amp; Trimming를 통해 다운로드 받은 FASTQ 파일의 품질을 확인하는 것이 좋습니다.&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741838037686&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;# FastQC 설치 (conda 환경에서)
conda install -c bioconda fastqc

# 품질 확인 진행
fastqc SRR390728.fastq&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;FastQC &amp;amp; Trimming&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;706&quot; data-origin-height=&quot;459&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/VUiYX/btsMKcZsdQ9/IZBzKio2GWT2qMlYCwQWO1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/VUiYX/btsMKcZsdQ9/IZBzKio2GWT2qMlYCwQWO1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/VUiYX/btsMKcZsdQ9/IZBzKio2GWT2qMlYCwQWO1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FVUiYX%2FbtsMKcZsdQ9%2FIZBzKio2GWT2qMlYCwQWO1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;706&quot; height=&quot;459&quot; data-origin-width=&quot;706&quot; data-origin-height=&quot;459&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;608&quot; data-origin-height=&quot;118&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bfYHho/btsMKcE9Rc2/td83n9w5bRAcX5fsed9m70/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bfYHho/btsMKcE9Rc2/td83n9w5bRAcX5fsed9m70/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bfYHho/btsMKcE9Rc2/td83n9w5bRAcX5fsed9m70/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbfYHho%2FbtsMKcE9Rc2%2Ftd83n9w5bRAcX5fsed9m70%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;608&quot; height=&quot;118&quot; data-origin-width=&quot;608&quot; data-origin-height=&quot;118&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;FastQC를&amp;nbsp;실행하면&amp;nbsp;저렇게&amp;nbsp;.html&amp;nbsp;파일과&amp;nbsp;zip&amp;nbsp;파일이&amp;nbsp;생성되는데,&amp;nbsp;중요한&amp;nbsp;파일은&amp;nbsp;.html&amp;nbsp;파일입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;생성된&amp;nbsp;HTML&amp;nbsp;파일을&amp;nbsp;열어보면&amp;nbsp;아래와&amp;nbsp;같은&amp;nbsp;화면이&amp;nbsp;나오게&amp;nbsp;됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1420&quot; data-origin-height=&quot;1868&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bOCL5g/btsMIDqAjBd/15iCCNPuexeiSFFDP7wSP1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bOCL5g/btsMIDqAjBd/15iCCNPuexeiSFFDP7wSP1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bOCL5g/btsMIDqAjBd/15iCCNPuexeiSFFDP7wSP1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbOCL5g%2FbtsMIDqAjBd%2F15iCCNPuexeiSFFDP7wSP1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;664&quot; height=&quot;873&quot; data-origin-width=&quot;1420&quot; data-origin-height=&quot;1868&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;FASTQC&amp;nbsp;리포트를&amp;nbsp;간단하게&amp;nbsp;해석하기&amp;nbsp;위해서&amp;nbsp;중요한&amp;nbsp;항목에&amp;nbsp;대해서만&amp;nbsp;알아보겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;보고서에서 중요한 항목:&lt;br /&gt;- &lt;b&gt;Per Base Sequence Quality&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;각&amp;nbsp;염기&amp;nbsp;위치&amp;nbsp;별&amp;nbsp;품질(Phred&amp;nbsp;Score)을&amp;nbsp;확인&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;품질이&amp;nbsp;20&amp;nbsp;이상이면&amp;nbsp;양호,&amp;nbsp;20&amp;nbsp;미만&amp;nbsp;구간이&amp;nbsp;많다면&amp;nbsp;추가&amp;nbsp;trimming&amp;nbsp;필요&lt;br /&gt;- &lt;b&gt;Per Sequence Quality Scores&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;전반적인&amp;nbsp;데이터&amp;nbsp;품질&amp;nbsp;분포&amp;nbsp;확인&amp;nbsp;가능&lt;br /&gt;- &lt;b&gt;Sequence Length Distribution&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;서열&amp;nbsp;길이의&amp;nbsp;분포를&amp;nbsp;통해&amp;nbsp;trimming이&amp;nbsp;필요한지&amp;nbsp;판단&amp;nbsp;가능&lt;br /&gt;- &lt;b&gt;Overrepresented sequences&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;중복된&amp;nbsp;서열이&amp;nbsp;많은&amp;nbsp;경우&amp;nbsp;오염&amp;nbsp;가능성&amp;nbsp;의심&lt;br /&gt;-&amp;nbsp;전반적으로&amp;nbsp;빨간색&amp;nbsp;❌나&amp;nbsp;노란색&amp;nbsp;경고⚠️&amp;nbsp;항목이&amp;nbsp;많다면,&amp;nbsp;품질&amp;nbsp;저하&amp;nbsp;가능성이&amp;nbsp;있으므로&amp;nbsp;Trimming&amp;nbsp;필수&amp;nbsp;수행&amp;nbsp;권장합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;268&quot; data-origin-height=&quot;425&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/MvksV/btsMIEXpUMf/6uld3EyRMOtIjvPC4DkhG1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/MvksV/btsMIEXpUMf/6uld3EyRMOtIjvPC4DkhG1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/MvksV/btsMIEXpUMf/6uld3EyRMOtIjvPC4DkhG1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FMvksV%2FbtsMIEXpUMf%2F6uld3EyRMOtIjvPC4DkhG1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;268&quot; height=&quot;425&quot; data-origin-width=&quot;268&quot; data-origin-height=&quot;425&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왼쪽의&amp;nbsp;Summary를&amp;nbsp;보면&amp;nbsp;'Per&amp;nbsp;base&amp;nbsp;sequence&amp;nbsp;quality'가&amp;nbsp;❌&amp;nbsp;표시되어&amp;nbsp;있으므로&amp;nbsp;trimming을&amp;nbsp;해주는게&amp;nbsp;좋겠네요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741838534187&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;(BIO) min@minyoungxi:~/main/Bio/DNA practice$ sudo apt install trim-galore&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Trimming은 FASTQ 파일에서 품질이 낮거나 신뢰할 수 없는 부분을 잘라내는 작업을 말합니다. 즉, NGS로 얻은 FASTQ 데이터의 불필요하거나 품질이 낮은 염기서열을 제거하는 과정입니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;Trimming&lt;/b&gt;&amp;nbsp;과정에서는&amp;nbsp;Q&lt;b&gt;uality-based&amp;nbsp;trimming(품질&amp;nbsp;기반&amp;nbsp;트리밍),&amp;nbsp;Adapter&amp;nbsp;removal(어댑터&amp;nbsp;제거)&lt;/b&gt;와&amp;nbsp;같은&amp;nbsp;일들을&amp;nbsp;수행합니다.&amp;nbsp;전자의&amp;nbsp;경우&amp;nbsp;염기서열&amp;nbsp;끝부분에서&amp;nbsp;품질이&amp;nbsp;낮은&amp;nbsp;영역을&amp;nbsp;제거하는&amp;nbsp;작업이고,&amp;nbsp;후자의&amp;nbsp;경우&amp;nbsp;DNA&amp;nbsp;조각을&amp;nbsp;시퀀싱&amp;nbsp;할&amp;nbsp;때&amp;nbsp;사용하는&amp;nbsp;어댑터가&amp;nbsp;데이터에&amp;nbsp;섞이는&amp;nbsp;경우&amp;nbsp;어댑터&amp;nbsp;서열을&amp;nbsp;제거합니다.&lt;br /&gt;&lt;br /&gt;Trimming을&amp;nbsp;위해서&amp;nbsp;&lt;b&gt;`trim_galore`&lt;/b&gt;&amp;nbsp;을&amp;nbsp;설치하고&amp;nbsp;아래와&amp;nbsp;같이&amp;nbsp;명령어를&amp;nbsp;입력하여&amp;nbsp;Trimming을&amp;nbsp;진행합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1020&quot; data-origin-height=&quot;302&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b0Quti/btsMKb0zOUc/GGH0hF26H2XdUJNcxLrNtK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b0Quti/btsMKb0zOUc/GGH0hF26H2XdUJNcxLrNtK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b0Quti/btsMKb0zOUc/GGH0hF26H2XdUJNcxLrNtK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb0Quti%2FbtsMKb0zOUc%2FGGH0hF26H2XdUJNcxLrNtK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1020&quot; height=&quot;302&quot; data-origin-width=&quot;1020&quot; data-origin-height=&quot;302&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Trimming이&amp;nbsp;수행되면&amp;nbsp;아래와&amp;nbsp;같은&amp;nbsp;결과가&amp;nbsp;나옵니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;1. Total reads processed&lt;/b&gt;&lt;br /&gt;- 처리된 총 리드 수 (reads 수) :&lt;b&gt; 7,178,576&lt;/b&gt;개의 리드를 처리했습니다.&lt;br /&gt;&lt;b&gt;2. Reads with adapters&lt;/b&gt;&lt;br /&gt;- 어댑터 서열이 포함된 리드 수 : &lt;b&gt;3,245,087개 (전체의 45.2%)&lt;/b&gt;의 리드에 어댑터 서열이 있어서 이를 제거했습니다.&lt;br /&gt;- 이 수치가 높으면 실험 과정에서 사용한 어댑터가 데이터에 많이 포함되었다는 뜻이며, 트리밍이 매우 잘 된 것입니다.&lt;br /&gt;&lt;b&gt;3 . Reads written (passing filters)&lt;/b&gt;&lt;br /&gt;- 트리밍 후 최종적으로 남겨진 리드 수 : &lt;b&gt;7,178,576개 (100%) 모두 남겨졌습니다.&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;모든&amp;nbsp;리드가&amp;nbsp;최소&amp;nbsp;품질&amp;nbsp;기준을&amp;nbsp;통과하여&amp;nbsp;삭제된&amp;nbsp;리드는&amp;nbsp;없었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;769&quot; data-origin-height=&quot;488&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bIemxZ/btsMHT14Lwr/pzAOnkcPCUbWtluezh1k2K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bIemxZ/btsMHT14Lwr/pzAOnkcPCUbWtluezh1k2K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bIemxZ/btsMHT14Lwr/pzAOnkcPCUbWtluezh1k2K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbIemxZ%2FbtsMHT14Lwr%2FpzAOnkcPCUbWtluezh1k2K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;769&quot; height=&quot;488&quot; data-origin-width=&quot;769&quot; data-origin-height=&quot;488&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Alignment 정렬&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;정렬(Alignment)&lt;/b&gt; 이란, &lt;b&gt;FASTQ&lt;/b&gt; 파일에서 읽은 짧은 &lt;b&gt;서열(Read)&lt;/b&gt;을 기존에 알려진 &lt;b&gt;표준 유전체(Reference Genome)&lt;/b&gt;에 정확한 위치로 매핑(mapping)하는 과정입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;정렬을&amp;nbsp;통해&amp;nbsp;다음의&amp;nbsp;분석을&amp;nbsp;수행할&amp;nbsp;수&amp;nbsp;있습니다.&lt;br /&gt;-&amp;nbsp;유전자&amp;nbsp;발현량&amp;nbsp;분석&amp;nbsp;(어떤&amp;nbsp;유전자에서&amp;nbsp;얼마나&amp;nbsp;발현되었는지)&lt;br /&gt;-&amp;nbsp;변이(variants)&amp;nbsp;발견&amp;nbsp;및&amp;nbsp;분석&lt;br /&gt;-&amp;nbsp;특정&amp;nbsp;유전자의&amp;nbsp;발현&amp;nbsp;패턴&amp;nbsp;분석&amp;nbsp;및&amp;nbsp;질병&amp;nbsp;예측&amp;nbsp;분석&amp;nbsp;가능&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;1.&amp;nbsp;STAR&amp;nbsp;설치&lt;/b&gt;&lt;/p&gt;
&lt;pre id=&quot;code_1741838737557&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;conda install -c bioconda star&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;2.&amp;nbsp;Reference&amp;nbsp;Genome&amp;nbsp;준비&lt;/b&gt;&lt;br /&gt;먼저&amp;nbsp;표준&amp;nbsp;유전체(reference&amp;nbsp;genome)를&amp;nbsp;준비하고,&amp;nbsp;STAR가&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;색인(index)을&amp;nbsp;생성해야&amp;nbsp;합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래는&amp;nbsp;인간&amp;nbsp;유전체(GRCh38)&amp;nbsp;기준의&amp;nbsp;예시&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Reference&amp;nbsp;Genome&amp;nbsp;다운로드&lt;/b&gt;&lt;/p&gt;
&lt;pre id=&quot;code_1741838776630&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;wget http://ftp.ensembl.org/pub/release-110/fasta/homo_sapiens/dna/Homo_sapiens.GRCh38.dna.primary_assembly.fa.gz
gunzip Homo_sapiens.GRCh38.dna.primary_assembly.fa.gz&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;GTF&amp;nbsp;파일&amp;nbsp;(유전자&amp;nbsp;위치&amp;nbsp;정보)&amp;nbsp;다운로드&lt;/b&gt;&lt;/p&gt;
&lt;pre id=&quot;code_1741838980430&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;wget http://ftp.ensembl.org/pub/release-110/gtf/homo_sapiens/Homo_sapiens.GRCh38.110.gtf.gz
gunzip Homo_sapiens.GRCh38.110.gtf.gz&lt;/code&gt;&lt;/pre&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;b&gt;Reference&amp;nbsp;Genome&lt;/b&gt;&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;698&quot; data-origin-height=&quot;535&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bzh4Qt/btsMH9i5uUv/dqGK4lMsygphw1M4UvPFk0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bzh4Qt/btsMH9i5uUv/dqGK4lMsygphw1M4UvPFk0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bzh4Qt/btsMH9i5uUv/dqGK4lMsygphw1M4UvPFk0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbzh4Qt%2FbtsMH9i5uUv%2FdqGK4lMsygphw1M4UvPFk0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;698&quot; height=&quot;535&quot; data-origin-width=&quot;698&quot; data-origin-height=&quot;535&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Reference Genome(기준 유전체)&lt;/b&gt;이란 한 생물종의 전체 유전체 정보를 대표적으로 정리한&lt;b&gt; 표준적인 유전체 서열&lt;/b&gt;을 의미합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;쉽게&amp;nbsp;말해,&amp;nbsp;한&amp;nbsp;종(예:&amp;nbsp;인간,&amp;nbsp;쥐,&amp;nbsp;효모&amp;nbsp;등)을&amp;nbsp;대표할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;표준적인&amp;nbsp;DNA&amp;nbsp;서열을&amp;nbsp;하나의&amp;nbsp;완전한&amp;nbsp;세트로&amp;nbsp;정리한&amp;nbsp;것입니다.&lt;br /&gt;- 예를 들어, 인간의 대표적인 레퍼런스 유전체는 &lt;b&gt;GRCh38 (Genome Reference Consortium Human Build 38)&lt;/b&gt; 입니다.&lt;br /&gt;&lt;br /&gt;Reference&amp;nbsp;Genome은&amp;nbsp;유전체&amp;nbsp;분석의&amp;nbsp;기준&amp;nbsp;역할을&amp;nbsp;합니다.&lt;br /&gt;&lt;br /&gt;특히 NGS 분석에서는&lt;b&gt; 짧게 읽힌 서열(read)을 어디에 매핑(위치)할지 결정하는 기준&lt;/b&gt;이 됩니다.&lt;br /&gt;&lt;br /&gt;즉, &lt;i&gt;짧은 서열(Reads, FASTQ 데이터) &amp;rarr; Reference genome에 정렬 &amp;rarr; 특정 유전자 또는 변이 분석&lt;/i&gt; 의 흐름으로 실행됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741838916575&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;FASTQ 데이터 (짧은 서열 Reads)
    &amp;darr; Alignment (STAR 등)
Reference Genome (FASTA) &amp;rarr; Reads의 위치를 결정하는 기준
    &amp;darr; 발현량 정량화 (featureCounts, Salmon 등)
Reference Genome annotation (GTF) &amp;rarr; 유전자별로 reads 개수를 계산하는 기준&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;3.&amp;nbsp;STAR&amp;nbsp;Index&amp;nbsp;만들기&amp;nbsp;&lt;/b&gt;&lt;br /&gt;유전체에&amp;nbsp;대한&amp;nbsp;색인(index)을&amp;nbsp;만들어줍니다.&amp;nbsp;(최초&amp;nbsp;1회만&amp;nbsp;수행)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741839003763&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;mkdir star_index

STAR --runThreadN 8 \
     --runMode genomeGenerate \
     --genomeDir star_index \
     --genomeFastaFiles Homo_sapiens.GRCh38.dna.primary_assembly.fa \
     --sjdbGTFfile Homo_sapiens.GRCh38.110.gtf \
     --sjdbOverhang 100&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;--runThreadN: 사용할 CPU 코어 수&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;--sjdbOverhang: 리드 길이 -1 (대체로 100 정도 권장)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;4.&amp;nbsp;정렬(Alignment)&amp;nbsp;수행&amp;nbsp;&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;이제&amp;nbsp;트리밍한&amp;nbsp;파일을&amp;nbsp;정렬합니다.&lt;br /&gt;예시&amp;nbsp;파일명:&amp;nbsp;&lt;b&gt;`SRR390728_1_trimmed.fq`&lt;/b&gt;&lt;/p&gt;
&lt;pre id=&quot;code_1741839043994&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;mkdir aligned

STAR --runThreadN 8 \
     --genomeDir star_index \
     --readFilesIn SRR390728_1_trimmed.fq \
     --outFileNamePrefix aligned/SRR390728_ \
     --outSAMtype BAM SortedByCoordinate&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;`--runThreadN 8`&lt;/b&gt;: CPU를 8개 사용할 때 (필요에 따라 숫자 조절 가능)&lt;br /&gt;&lt;b&gt;`--genomeDir star_index`&lt;/b&gt;: 방금 생성한 index가 저장된 폴더&lt;br /&gt;&lt;b&gt;`--readFilesIn`&lt;/b&gt;: 입력 FASTQ (pair로 존재한다면 둘 다 넣어줌)&lt;br /&gt;&lt;b&gt;`--outFileNamePrefix`&lt;/b&gt;: 결과 파일 저장 위치와 이름 지정&lt;br /&gt;&lt;b&gt;`--outSAM&lt;/b&gt;&lt;b&gt;type BAM SortedByCoordinate`&lt;/b&gt;: BAM 형태로 정렬되어 저장&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;5.&amp;nbsp;Alignment&amp;nbsp;결과&amp;nbsp;확인하기&lt;/b&gt;&lt;/p&gt;
&lt;pre id=&quot;code_1741839092903&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;aligned/
    ├── SRR390728_Aligned.sortedByCoord.out.bam  # 최종 결과 파일
    ├── SRR390728_Log.final.out                  # 정렬 통계 정보
    ├── SRR390728_Log.out                        # STAR 수행 로그&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- &lt;b&gt;bam&lt;/b&gt;: Binary Alignment Map의 약자로, 정렬된 결과 파일이며 이후 발현량 정량화의 입력 데이터로 사용됩니다.&lt;br /&gt;- &lt;b&gt;Log.final.out&lt;/b&gt;:&amp;nbsp;&amp;nbsp;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;STAR의&amp;nbsp;정렬&amp;nbsp;정확도와&amp;nbsp;성능을&amp;nbsp;요약한&amp;nbsp;통계정보.&amp;nbsp;&amp;nbsp;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;이&amp;nbsp;파일을&amp;nbsp;열어서&amp;nbsp;alignment의&amp;nbsp;품질을&amp;nbsp;확인할&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;출력된 결과 해석&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1741839123479&quot; class=&quot;shell&quot; data-ke-language=&quot;shell&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;samtools flagstat SRR390728_Aligned.sortedByCoord.out.bam

495008 + 0 in total (QC-passed reads + QC-failed reads)
412848 + 0 primary
82160 + 0 secondary
0 + 0 supplementary
0 + 0 duplicates
0 + 0 primary duplicates
82160 + 0 secondary&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;699&quot; data-origin-height=&quot;339&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ceJd2R/btsMH67U5Ho/QER5FkjUK18eH1qkLoqI5K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ceJd2R/btsMH67U5Ho/QER5FkjUK18eH1qkLoqI5K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ceJd2R/btsMH67U5Ho/QER5FkjUK18eH1qkLoqI5K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FceJd2R%2FbtsMH67U5Ho%2FQER5FkjUK18eH1qkLoqI5K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;699&quot; height=&quot;339&quot; data-origin-width=&quot;699&quot; data-origin-height=&quot;339&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;지금&amp;nbsp;결과에서&amp;nbsp;주목할&amp;nbsp;수치는&amp;nbsp;다음과&amp;nbsp;같습니다:&lt;br /&gt;&lt;br /&gt;- 전체 read 수: 495,008개&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;br /&gt;- 정확히 정렬된 reads (properly paired): 94.41%&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;rarr; 일반적으로 이 수치가 80% 이상이면 양호한 데이터입니다.&amp;nbsp;&amp;nbsp;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;rarr; 94.41%는 매우 우수한 수치입니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;br /&gt;- Singleton 비율이 약 5.59%로 적당한 수준입니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;- 일반적으로 10% 미만이면 문제가 없습니다.&lt;br /&gt;결론적으로, 현재 데이터는 정렬 품질이 아주 좋은 상태입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;---&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 포스팅에서는 전처리 완료된 'SRR390728_Aligned.sortedByCoord.out.bam' 데이터를 파이썬으로 불러와서 분석하는 방법을 알아보겠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <category>AI</category>
      <category>bioinformatics</category>
      <category>Python</category>
      <category>바이오인포</category>
      <category>생물분석</category>
      <category>인공지능</category>
      <category>파이썬</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/141</guid>
      <comments>https://minyoungxi.tistory.com/141#entry141comment</comments>
      <pubDate>Thu, 13 Mar 2025 13:17:40 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - Zero shot health trajectory prediction using transformer</title>
      <link>https://minyoungxi.tistory.com/140</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Abstract&amp;nbsp;&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/m1hzb/btsLW1Zhs9v/9WmHq7hqQkYOIBpImrsoLK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/m1hzb/btsLW1Zhs9v/9WmHq7hqQkYOIBpImrsoLK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/m1hzb/btsLW1Zhs9v/9WmHq7hqQkYOIBpImrsoLK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fm1hzb%2FbtsLW1Zhs9v%2F9WmHq7hqQkYOIBpImrsoLK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;800&quot; height=&quot;400&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;연구 배경 및 목적&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; ETHOS(Enhanced Transformer for Health Outcome Simulation)&lt;/b&gt;는 의료 데이터를 효과적으로 분석하여 환자 맞춤형 예측과 시뮬레이션을 수행하는 데 중점을 둔 Transformer 기반 모델입니다. 기존 의료 인공 지능 적용의 주요 장애물인 대규모 레이블 데이터 부족 문제를 해결하고, 다중 태스크를 하나의 모델에서 수행할 수 있는 Zero-shot learning 을 도입하였습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문의 초반에는 미국의 의료 시스템에 대해 가장 많은 비용이 들지만(most expensive), 의료의 품질과 안전성은 다른 선진국과 비교했을 때 뒤떨어진다고 언급합니다. 전자의료기록(EHR)이 사용되고 있고, 의사결정 지원 기술도 많이 도입되고 있지만, 대부분 규칙 기반(Rule-based)으로 운영되고 있어 효과가 제한적이라고 주장합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;인공지능은 의료의 퀄리티를 개선할 잠재력을 가진 기술로 떠오르고 있지만, 대규모 레이블링된 데이터셋의 부족으로 인해 개발에 많은 비용과 시간이 소요되며, 적절한 시점에 적합한 의료진에게 권장 사항을 전달할 시스템 역량의 제한이 현재 문제라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서는 &lt;b&gt;ETHOS&lt;/b&gt;이라는 새로운 방법론을 소개하며, 이 방법이 AI의 광범위한 채택을 제한하는 여러 요소들은 해결할 수 있다고 주장합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;데이터&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 MIMIC-IV(&lt;a href=&quot;https://physionet.org/content/mimiciv/3.1/&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://physionet.org/content/mimiciv/3.1/&lt;/a&gt;) 데이터셋을 활용했으며, 아래의 특징이 있습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Tokenization : 환자의 건강 기록(Patient Health Timelines, PHT)을 시간 순서에 따라 토큰화하여 구성&lt;/li&gt;
&lt;li&gt;다양한 데이터 유형 처리 : PHT는 입원, 약물 처방, 실험실 결과 등 다양한 정보를 포함하며 모든 데이터를 정량화하여 토큰화&lt;/li&gt;
&lt;li&gt;데이터 전처리 최소화 : 데이터 노이즈(입퇴원 날짜 불일치 등)를 정제하지 않고 모델이 자체적으로 처리하도록 설계&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;모델 구조&amp;nbsp;&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;844&quot; data-origin-height=&quot;778&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/k9Kxy/btsLWcHhFHk/EEYpL70OfCXQk0WGCNxPsK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/k9Kxy/btsLWcHhFHk/EEYpL70OfCXQk0WGCNxPsK/img.png&quot; data-alt=&quot;Figure1. ETHOS 모델의 구조 및 흐름&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/k9Kxy/btsLWcHhFHk/EEYpL70OfCXQk0WGCNxPsK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fk9Kxy%2FbtsLWcHhFHk%2FEEYpL70OfCXQk0WGCNxPsK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;844&quot; height=&quot;778&quot; data-origin-width=&quot;844&quot; data-origin-height=&quot;778&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Figure1. ETHOS 모델의 구조 및 흐름&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;a. Extraction of raw patient data from the MIMIC-IV database, encompassing tables of admissions, patient demographics, medical procedures, among others.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원시 데이터를 추출하는 단계 a에 대한 설명입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 MIMIC-IV 데이터베이스에서 환자 정보를 추출합니다. ( 입원 기록, 처방, 실험실 데이터 등)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 모델에서 사용된 주요 데이터 테이블은 아래와 같습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;환자 기본 정보(Patients)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;입원 및 퇴원 기록(Admissions)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;약물 처방(Prescriptions)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;실험실 결과(Labevents)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;치료 및 절차 기록(Procedures)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;진단 정보(Diagnoses)&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;b The tokenization process, utilizing data from 90% of patients for model training and the remaining 10% for testing, transforms complex medical records into structured PHT for efficient model processing.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PHT는 환자의 건강 기록을 시간 순서대로 정리하여 이벤트 단위로 나누고 이를 토큰(Token)으로 변환&lt;/b&gt;합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 토큰은 의료 이벤트를 나타내며 시간 간격 토큰을 삽입하여 이벤트 간의 시간을 표현합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;토큰화 과정 :&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;정량 데이터(ex.혈압, SOFA 점수)는 분위수(Quantiles)로 변환하여 범주화합니다.&lt;/li&gt;
&lt;li&gt;텍스트 기반 데이터(ICD-10, ATC 코드 등)는 계층적으로 토큰화 합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;토큰화 된 상태를 보면 환자 의료 데이터를 시간 순서에 따라 배열하고 각 데이터 항목을 토큰으로 변환한 것을 볼 수 있습니다. 그리고 시간 간격을 나타내는 시간 토큰을 삽입합니다.(ex. 5분, 1시간, 6개월 등)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 Figure를 통해 ETHOS 모델이 원시 데이터를 토큰화하고, Transformer를 사용해 훈련 및 예측을 수행하는 전체 과정을 명확히 보여줍니다. 특히 제로-샷 학습을 통해 다중 태스크를 처리하는 효율적인 워크플로를 강조합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1082&quot; data-origin-height=&quot;578&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/vlgQM/btsLWqZyXs8/E8fL9EJyV9Xoffg6snkGC1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/vlgQM/btsLWqZyXs8/E8fL9EJyV9Xoffg6snkGC1/img.png&quot; data-alt=&quot;Figure 2는 ETHOS 모델이 MIMIC-IV 데이터를 어떻게 토큰화하고, 이를 임베딩 공간으로 변환하는지 시각적으로 보여줍니다.&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/vlgQM/btsLWqZyXs8/E8fL9EJyV9Xoffg6snkGC1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FvlgQM%2FbtsLWqZyXs8%2FE8fL9EJyV9Xoffg6snkGC1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1082&quot; height=&quot;578&quot; data-origin-width=&quot;1082&quot; data-origin-height=&quot;578&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Figure 2는 ETHOS 모델이 MIMIC-IV 데이터를 어떻게 토큰화하고, 이를 임베딩 공간으로 변환하는지 시각적으로 보여줍니다.&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;1. 토큰화(Tokenization)&lt;/b&gt;&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;PHT 구성&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;원시 데이터를 시간 순서에 따라 정렬하고, 이벤트 단위로 토큰화.&lt;/li&gt;
&lt;li&gt;각 이벤트(예: 입원, 약물 처방)는 1~7개의 토큰으로 변환.&lt;/li&gt;
&lt;li&gt;이벤트 간 시간 간격을 나타내는 &lt;b&gt;시간 토큰&lt;/b&gt; 추가.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;정량 데이터 처리&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;혈압, SOFA 점수와 같은 연속형 데이터를 분위수(quantiles)로 변환.&lt;/li&gt;
&lt;li&gt;10개 분위수로 나눠 각 범위에 해당하는 값을 특정 토큰으로 표현.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;2. 임베딩(Embedding)&lt;/b&gt;&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;양적 데이터 임베딩&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Fig. 2b에서, 정량 데이터를 나타내는 토큰의 768차원 임베딩을 2D로 축소(PCA 사용).&lt;/li&gt;
&lt;li&gt;분위수 토큰 사이의 거리와 패턴은 임상적 데이터의 순서를 학습했음을 보여줌.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;시간 간격 임베딩&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Fig. 2c에서 시간 간격을 나타내는 토큰 임베딩의 분포를 시각화.&lt;/li&gt;
&lt;li&gt;짧은 시간 간격(5분&lt;s&gt;1시간)과 긴 간격(3&lt;/s&gt;6개월)이 모델에서 유사하게 처리되는 경향을 보임.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;3. 데이터 분포 및 관계 학습&lt;/b&gt;&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;높은 값(예: Q9, Q10)의 임베딩 간 거리가 더 큰 이유:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;혈압과 같은 임상적 데이터에서 높은 값 간의 차이가 더 중요한 임상적 의미를 가짐.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;시간 간격 토큰에서도 유사한 패턴이 관찰되며, 이는 모델이 시간 데이터를 효과적으로 학습했음을 의미.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;모델 Summary&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;ETHOS 연구는 제로-샷 학습(Zero-shot learning)&lt;/b&gt;을 통해 다음과 같은 예측 작업에서의 모델 성능을 보여줍니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;입원 및 ICU 사망률 예측&lt;/li&gt;
&lt;li&gt;ICU 체류 기간(LOS) 추정&lt;/li&gt;
&lt;li&gt;재입원 가능성 예측&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한, 회귀 작업을 수행하여 ICU 입원 전 정보를 사용하여 첫날의 &lt;b&gt;SOFA(Sequential Organ Failure Assessment) 점수&lt;/b&gt;를 추정합니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;SOFA 점수는 ICU에서 환자의 상태를 모니터링하는 데 사용되며 호흡기, 심혈관, 간, 응고, 신장, 신경계 6개 시스템을 각각 평가하여 24점 사이에 분포하게 됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 또한 병원 퇴원 시 진단 관련 그룹(DRG) 분류를 예측하며, 이는 771개의 카테고리로 구성됩니다. DRG는 병원 사례를 표준화된 복잡성 기준으로 분류하여 효율적인 환자 관리를 장려하고 품질을 유지합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS의 제로-샷 학습 접근 방식은 다양한 테스크에서 세부 훈련 없이 정확한 추론을 가능하게 하며, 미래 건강 기록(PHT)을 예측할 수 있는 기능은 의료의 다양한 상황에서 혁신적이고 맞춤화된 응용 프로그램 개발을 가능하게 합니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;ETHOS와 기존 모델의 차이&lt;/b&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 기존의 두 가지 주요 의료 AI 모델 범주와 차별화됩니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;임상 언어 모델(CLaMs)&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;임상 텍스트 데이터를 처리하도록 설계된 대형 언어 모델(LLM)로, 의료 노트, 생의학 문헌 등 방대한 데이터셋으로 훈련.&lt;/li&gt;
&lt;li&gt;약물명 추출, 의료 대화 요약, 임상 결과 예측 등 다양한 임상 태스크 수행.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;전자 의료 기록(EMR) 기반 모델(FEMRs)&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;구조화된 데이터(예: 인구통계 및 검사 결과)와 비구조화된 데이터(예: 임상 노트 및 영상 보고서)를 분석.&lt;/li&gt;
&lt;li&gt;환자 표현 및 결과 예측을 지원하지만 텍스트 생성 기능은 없음.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 라벨링된 데이터나 태스크별 미세 조정 없이도 정확한 예측을 제공하며, 훈련 및 테스트 데이터 선택에 특정 기준을 적용하지 않아, 수백만에서 수억 명의 환자 데이터를 포함하는 대규모 데이터셋에도 확장 가능성을 보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1075&quot; data-origin-height=&quot;607&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dMODZF/btsLWqL0ZyA/MWhoGoo5WnZ3lo6YBMAWFK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dMODZF/btsLWqL0ZyA/MWhoGoo5WnZ3lo6YBMAWFK/img.png&quot; data-alt=&quot;Fig. 4: PHT(Patient Health Timeline) 구성 및 토큰화 과정&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dMODZF/btsLWqL0ZyA/MWhoGoo5WnZ3lo6YBMAWFK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdMODZF%2FbtsLWqL0ZyA%2FMWhoGoo5WnZ3lo6YBMAWFK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1075&quot; height=&quot;607&quot; data-origin-width=&quot;1075&quot; data-origin-height=&quot;607&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Fig. 4: PHT(Patient Health Timeline) 구성 및 토큰화 과정&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Fig. 4는 ETHOS 모델이 데이터를 정리하고 처리하는 방식을 명확히 보여줍니다. 이 과정의 장점은 다음과 같습니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;시간 순서 보존&lt;/b&gt;: 데이터의 시간적 흐름이 유지되어, 모델이 이벤트 간의 시간적 관계를 학습할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;다양한 데이터 처리&lt;/b&gt;: 정량 데이터, 텍스트 데이터, 시간 간격 등을 모두 통합하여 처리 가능.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;효율적 학습&lt;/b&gt;: 정제된 PHT는 ETHOS 모델의 Transformer 아키텍처가 효율적으로 학습할 수 있는 기반을 제공합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1069&quot; data-origin-height=&quot;669&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b7KOmB/btsLWwMd9Zj/EPQjeKdyriCqaQ84UdO1ek/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b7KOmB/btsLWwMd9Zj/EPQjeKdyriCqaQ84UdO1ek/img.png&quot; data-alt=&quot;Fig. 5: SOFA 점수 추정 및 DRG 분류에서 ETHOS 모델의 성능&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b7KOmB/btsLWwMd9Zj/EPQjeKdyriCqaQ84UdO1ek/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb7KOmB%2FbtsLWwMd9Zj%2FEPQjeKdyriCqaQ84UdO1ek%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1069&quot; height=&quot;669&quot; data-origin-width=&quot;1069&quot; data-origin-height=&quot;669&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Fig. 5: SOFA 점수 추정 및 DRG 분류에서 ETHOS 모델의 성능&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;a) SOFA 점수 추정의 프로세스(Fig. 5a)&lt;/b&gt;&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;입력 데이터&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;모델은 환자가 ICU에 입원한 후 첫날의 SOFA 점수를 추정합니다.&lt;/li&gt;
&lt;li&gt;입력 데이터는 ICU 입원 시점까지의 환자 건강 이력을 포함합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;토큰 시퀀스 생성&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;ETHOS는 세 가지 주요 토큰을 생성합니다:
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;Admission type 토큰&lt;/b&gt;: 환자의 ICU 입원 유형을 나타냄(오렌지색 토큰).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;SOFA 토큰&lt;/b&gt;: SOFA 점수 예측이 이어질 것을 나타냄.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;분위수 토큰(Quantile Token)&lt;/b&gt;: SOFA 점수의 분위수에 대한 확률 분포를 예측.&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;점수 계산 방식&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;모델은 각 분위수의 확률 분포를 생성하며, 각 분위수의 평균 값(1.0, 3.5, ...)을 사용하여 SOFA 점수를 계산합니다.&lt;/li&gt;
&lt;li&gt;데이터셋에 SOFA 값 24가 없기 때문에 점수 범위는 0~23으로 제한됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;b) 실제 값과 예측 값의 상관관계(Fig. 5b)&lt;/b&gt;&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;결과 시각화&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;실제 SOFA 점수와 ETHOS가 예측한 점수 간의 상관 관계를 그래프로 표시.&lt;/li&gt;
&lt;li&gt;모델이 높은 예측 정확도를 보여주며, 실제 값과 예측 값이 강한 양의 상관관계를 가짐.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;임상적 유용성&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;SOFA 점수는 중환자실(ICU)에서 환자의 장기 기능 상태를 모니터링하는 데 중요한 지표로, ETHOS가 정확한 점수를 추정할 수 있는 능력을 보여줍니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;c) DRG 분류 방법&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;입력 데이터&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;DRG 분류는 환자의 퇴원 시점을 기준으로 수행되며, 환자의 PHT(건강 기록) 데이터를 사용합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;토큰화&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;ETHOS는 퇴원 이벤트 관련 토큰(예: 퇴원 유형, 병원 체류 기간, 퇴원 목적) 뒤에 &lt;b&gt;DRG 토큰&lt;/b&gt;을 삽입하여 DRG 분류를 수행.&lt;/li&gt;
&lt;li&gt;DRG 데이터가 훈련 세트에서 제공되지 않을 경우, &quot;DRG_UNKNOWN&quot;이라는 자리표시자 토큰을 사용합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;예측 방식&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;모델은 DRG 카테고리(771개 중 하나)에 대한 확률 분포를 생성합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Top-{1, 2, 3, 5} 정확도&lt;/b&gt;를 사용하여 모델 성능을 평가.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;d) DRG 분류 정확도&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;결과 시각화&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Top-1, Top-2, Top-3, Top-5 정확도를 그래프로 표시하여 모델의 예측 성능을 강조.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;모델의 강점&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;ETHOS는 퇴원 이벤트 이전의 환자 데이터를 사용하여 높은 정확도로 DRG를 예측.&lt;/li&gt;
&lt;li&gt;이는 DRG 분류를 통해 병원의 자원 사용과 효율성을 최적화하는 데 유용합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Fig. 5는 ETHOS가 SOFA 점수 추정과 DRG 분류라는 두 가지 중요한 의료 작업에서 뛰어난 성능을 발휘함을 보여줍니다. 특히, 모델이 시간적 데이터를 활용하여 복잡한 예측 작업을 수행할 수 있음을 강조하며, 이는 ETHOS가 의료 데이터 분석과 자원 관리에 중요한 도구로 활용될 수 있음을 시사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;성능 평가&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모델은 다음과 같은 임상 작업에서 성과를 보였습니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;중환자실(ICU) 및 입원 사망 예측&lt;/b&gt;: AUC 0.921 (입원 사망), AUC 0.927 (ICU 사망).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;ICU 체류 기간 추정&lt;/b&gt;: 평균 절대 오차(MAE) 2.262일.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;SOFA 점수 예측&lt;/b&gt;: ICU 입원 후 첫날 SOFA 점수 MAE 1.502.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;DRG(Diagnosis-Related Group) 분류&lt;/b&gt;: Top-1 정확도 84.8%.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;ICU 재입원 예측&lt;/b&gt;: AUC 0.807&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Summary&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS의 장점은 시간 기반 시뮬레이션을 통해 미래 건강 경로를 예측하며 다양한 임상 작업을 수행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SOFA 점수와 DRG 분류에서 높은 정확도를 보이며 다양한 임상 데이터에 적용 가능합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전통적인 머신러닝 모델이나 GPT-4o 보다 뛰어난 성능과 효율성을 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 입원 사망률, ICU 체류 기간, SOFA 점수 및 DRG 분류와 같은 다양한 임상 태스크에서 뛰어난 예측 성능을 보여줍니다. 특히, 제로-샷 학습 접근 방식을 통해 추가적인 데이터 라벨링이나 미세 조정 없이 높은 효율성과 확장성을 제공합니다. ETHOS는 기존 모델에 비해 임상적 유용성과 정확도를 개선한 강력한 도구임을 입증합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Insight&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저는 해당 논문에서 EHR 데이터 토큰화에 대해 흥미롭게 봤습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대규모 전자의료기록을 트랜스포머 모델에 학습 가능한 형태로 변환하기 위해 토큰화하는 과정은 중요한 단계입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단순 토큰화가 아닌 시간적 특성을 반영하여 모델 학습에 최적화된 구조를 제공하는 부분이 인상깊었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;850&quot; data-origin-height=&quot;417&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/DQukr/btsLViIgBUf/nkcOKoZE0nwRO5DRXKnua0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/DQukr/btsLViIgBUf/nkcOKoZE0nwRO5DRXKnua0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/DQukr/btsLViIgBUf/nkcOKoZE0nwRO5DRXKnua0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FDQukr%2FbtsLViIgBUf%2FnkcOKoZE0nwRO5DRXKnua0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;850&quot; height=&quot;417&quot; data-origin-width=&quot;850&quot; data-origin-height=&quot;417&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;EHR 데이터는 정량적 데이터(혈압, 검사 수치)와 비정형 데이터(진단 코드, 약물 코드)를 포함하고 있고, 의료 이벤트는 시간적 맥락을 유지해야 의미있는 예측이 가능합니다. 그런데 해당 데이터는 잘 정리되지 않은 경우가 많습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ETHOS는 데이터 전처리를 최소화하여 노이즈 데이터도 처리 가능한 모델로 설계하고 시간적 맥락을 유지하기 위해 데이터를 PHT로 변환하였죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이벤트 기반 토큰화는 해당 논문의 토큰화 과정의 핵심입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모든 의료 이벤트(입원, 검사, 약물 처방 등) 를 토큰 단위로 변환하고 각 이벤트는 하나 이상의 토큰으로 표현되며, 세부 정보까지 포함합니다. ( ex. 약물 처방 이벤트는 약물 코드, 용량, 투여 방식 등을 각각의 토큰으로 변환 )&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;혈압, SOFA 점수와 같은 연속형 데이터를 10개의 분위수로 나눠 범주화하는 방법을 사용하는데 연속형 데이터의 세부 값을 유지하면서도 모델 학습 효율성을 높입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;13개의 시간 토큰으로 시간 간격(5분, 1시간, 6개월)을 표현하여 긴 시간 간격은 반복된 시간 토큰으로 세분화 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한&amp;nbsp; 방식의 장점은 시간적 맥락을 학습할 수 있으며, 긴 간격과 짧은 간격을 모두 적절히 처리할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;고정 정보(Static Data)&lt;/b&gt;는 환자의 성별, 연령, 인종 등 시간에 따라 변하지 않는 정보입니다. 이런 정보는 PHT의 시작에 고정 토큰으로 삽입합니다. 예를 들어 '45-50 years', 'female' 과 같은 환자의 고유한 특성이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;정리하자면&lt;b&gt; 시간 토큰의 기술적 설계는 해당 논문에서 얻을 수 있는 가장 좋은 인사이트&lt;/b&gt; 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;범주화의 이점이 있고, 긴 시간 간격을 세분화 하고, 시간 토큰의 일관성을 적용하는 것은 추후 활용성이 높을 것 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <category>AI</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <category>메디컬</category>
      <category>의학논문</category>
      <category>인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/140</guid>
      <comments>https://minyoungxi.tistory.com/140#entry140comment</comments>
      <pubDate>Wed, 22 Jan 2025 18:55:24 +0900</pubDate>
    </item>
    <item>
      <title>[Biosignal] - PPG(Photoplethysmography)에 Deep learning이 적용된 최신 연구 동향을 살펴보자 ! - 구글 스칼라 및 리뷰 페이퍼 사용법 - part1</title>
      <link>https://minyoungxi.tistory.com/139</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;최신 연구동향 파악&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최신 연구동향을 파악하는 것은 연구의 첫 단계입니다. 관심 분야에 대한 최신 논문을 확인하면서 현재 어떤 방법론으로 해당 문제에 접근하는지에 대해 인사이트를 얻고, 내 연구에서 어떻게 적용하면 좋을지 고민해보는 과정입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여러 경로에서 최신 연구에 대한 정보를 확인할 수 있는데요, 아마 가장 많이 이용하시는 경로는&lt;a href=&quot;https://scholar.google.co.kr/schhp?hl=ko&amp;amp;as_sdt=0,5&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;&lt;b&gt; 'Google Scholar'&lt;/b&gt; &lt;/a&gt;이지 않을까 싶습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;896&quot; data-origin-height=&quot;555&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cAHxdQ/btsKWHhgIOq/qKctpWEZV5hNeq6C416IR0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cAHxdQ/btsKWHhgIOq/qKctpWEZV5hNeq6C416IR0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cAHxdQ/btsKWHhgIOq/qKctpWEZV5hNeq6C416IR0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcAHxdQ%2FbtsKWHhgIOq%2FqKctpWEZV5hNeq6C416IR0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;896&quot; height=&quot;555&quot; data-origin-width=&quot;896&quot; data-origin-height=&quot;555&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저는 Google Scholar 에서 Biosignal 분야의 최신 연구 동향을 살펴보고자 해당 논문을 선택했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아직 Arxiv에 업로드만 된 상태인데, 가장 최근에 나온 PPG 리뷰 페이퍼라 선택하게 되었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PPG(Photoplethysmography)에 Deep learning이 적용된 연구&lt;/b&gt;들에 대한 리뷰 페이퍼이고, 해당 논문을 아주 구체적으로 리딩하면서 연구 트렌드에 대한 조사를 할 생각입니다. 리뷰 페이퍼는 양이 매우 방대해서 처음부터 끝까지 정독을 하기엔 시간이 너무 오래 걸립니다. 그래서 중요한 부분을 위주로 읽으면서 해당 분야의 트렌드를 따라가 봅시다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;---&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Abstract&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문 : &lt;a href=&quot;https://arxiv.org/abs/2401.12783&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://arxiv.org/abs/2401.12783&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1732612046110&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;A Review of Deep Learning Methods for Photoplethysmography Data&quot; data-og-description=&quot;Photoplethysmography (PPG) is a highly promising device due to its advantages in portability, user-friendly operation, and non-invasive capabilities to measure a wide range of physiological information. Recent advancements in deep learning have demonstrate&quot; data-og-host=&quot;arxiv.org&quot; data-og-source-url=&quot;https://arxiv.org/abs/2401.12783&quot; data-og-url=&quot;https://arxiv.org/abs/2401.12783v1&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/uf6D8/hyXC78dMF0/XYky1pboXdrgL2G1BNyQFk/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bicDl0/hyXDnb4egq/wk39xmmflYEC6ZsHpqFlM0/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2401.12783&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://arxiv.org/abs/2401.12783&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/uf6D8/hyXC78dMF0/XYky1pboXdrgL2G1BNyQFk/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bicDl0/hyXDnb4egq/wk39xmmflYEC6ZsHpqFlM0/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;A Review of Deep Learning Methods for Photoplethysmography Data&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;Photoplethysmography (PPG) is a highly promising device due to its advantages in portability, user-friendly operation, and non-invasive capabilities to measure a wide range of physiological information. Recent advancements in deep learning have demonstrate&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;arxiv.org&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt; Background and objectives: Photoplethysmography (PPG) is a highly promising device due to its advantages in portability, user-friendly operation, and non-invasive capabilities to measure a wide range of physiological information, such as heart rate and blood oxygen saturation. Recent advancements in deep learning have demonstrated remarkable outcomes by leveraging PPG signals collected from a variety of PPG devices for tasks related to personal health management and other multifaceted applications. &lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 연구의 Abstract 에서 PPG는 휴대성, 사용 편의성, 비침습적(None-Invasive) 측정 기능 덕분에 심박수와 혈중 산소 포화도와 같은 광범위한 생리적 정보를 측정할 수 있는 매우 유망한 디바이스라고 소개합니다. 그리고 PPG는 딥러닝 기술의 발전에 따라 PPG 장치에서 수집된 신호를 활용하여 개인 건강 관리 및 다양한 응용 분야에서 뛰어난 결과를 보이고 있다고 언급합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;Methods:&amp;nbsp;We&amp;nbsp;systematically&amp;nbsp;reviewed&amp;nbsp;papers&amp;nbsp;that&amp;nbsp;applied&amp;nbsp;deep&amp;nbsp;learning&amp;nbsp;models&amp;nbsp;to&amp;nbsp;process&amp;nbsp;PPG&amp;nbsp;data&amp;nbsp;between&amp;nbsp;January&amp;nbsp;1st&amp;nbsp;of&amp;nbsp;2017&amp;nbsp;and&amp;nbsp;July&amp;nbsp;31st&amp;nbsp;of&amp;nbsp;2023&amp;nbsp;from&amp;nbsp;Google&amp;nbsp;Scholar,&amp;nbsp;PubMed&amp;nbsp;and&amp;nbsp;Dimensions.&amp;nbsp;Each&amp;nbsp;paper&amp;nbsp;is&amp;nbsp;analyzed&amp;nbsp;from&amp;nbsp;three&amp;nbsp;key&amp;nbsp;perspectives:&amp;nbsp;tasks,&amp;nbsp;models,&amp;nbsp;and&amp;nbsp;data.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이어서 리뷰 방법론에 대한 내용입니다. 2017년 1월 1일부터 2023년 7월 31일까지 Google Scholar, PubMed, Dimensions 데이터 베이스에서 딥러닝 모델을 적용한 PPG 데이터 처리에 관련된 논문들을 대상으로 한다고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;분석 기준은 Task, Model, Data 이 세 가지라고 하네요. Task는 PPG 데이터가 활용된 특정 작업(건강 상태 모니터링 , 생체 신호 추정 등)이고, 모델은 사용된 딥러닝 모델의 구조와 특성이 될 것 입니다. 데이터는 사용된 PPG 데이터의 출처, 품질, 전처리 방식 등이 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;Results: We finally extracted a total of 193 papers where different deep learning frameworks were used to process PPG signals. Based on the tasks addressed in these papers, we categorized them into two major groups: medical-related, and non-medical-related. The medical-related tasks were further divided into seven subgroups, including blood pressure analysis, cardiovascular monitoring and diagnosis, sleep health, mental health, respiratory monitoring and analysis, blood glucose analysis, as well as others. The non-medical-related tasks were divided into four subgroups, which encompass signal processing, biometric identification, electrocardiogram reconstruction, and human activity recognition.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최종적으로 선정된 논문은 193편이며 이는 다양한 딥러닝 프레임워크가 PPG 신호 처리에 사용된 논문을 선정한 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Task는 의료 관련(Medical-related) 작업과 비의료 관련(Non Medical-related) 작업으로 대분류가 나뉩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; 의료 관련(Medical-related) 작업은 7개의 세부 작업&lt;/b&gt;으로 분류:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;혈압 분석(Blood Pressure Analysis)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;심혈관 모니터링 및 진단(Cardiovascular Monitoring and Diagnosis)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;수면 건강(Sleep Health)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;정신 건강(Mental Health)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;호흡 모니터링 및 분석(Respiratory Monitoring and Analysis)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;혈당 분석(Blood Glucose Analysis)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;기타(Others)&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #333333; text-align: start;&quot;&gt;비의료 관련(Non Medical-related) 작업은 4개의 세부 작업&lt;/span&gt;&lt;/b&gt;&lt;span style=&quot;color: #333333; text-align: start;&quot;&gt;으로 분류:&lt;/span&gt;&lt;span style=&quot;color: #333333; text-align: start;&quot;&gt;&lt;/span&gt;&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;신호 처리(Signal Processing)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;생체 인식(Biometric Identification)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;심전도 복원(Electrocardiogram Reconstruction)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;인간 활동 인식(Human Activity Recognition)&lt;/b&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;Conclusions: In recent years, significant progress has been made in the field of using deep learning methods to process PPG data. This allows for a more thorough exploration and utilization of the information contained in PPG signals. Compared to traditional machine learning approaches that rely on manual features, deep learning methods offer higher accuracy and a more convenient model building process. However, challenges remain, such as limited quantity and quality of publicly available databases, a lack of effective validation in real-world scenarios, and concerns about the interpretability, scalability, and complexity of deep learning models. Moreover, there are still emerging research areas that require further investigation.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근 몇 년간 딥러닝을 적용하여 PPG 신호의 정보를 더 깊이 탐구하고 활용할 수 있는 기술적 진보가 이루어졌습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존에는 수작업에 의존하는 전통적 머신러닝 접근법이 선호되었지만, 딥러닝은 더 높은 정확도와 편리한 모델 구축 과정을 제공하죠. 하지만 데이터베이스 문제(공개 데이터베이스의 수량과 품질의 부족)와 실제 환경에서의 검증이 부족하다는 문제점이 있습니다. 또한, 모델의 해석 가능성 및 확장성에도 문제가 있습니다. 이는 기존의 딥러닝 문제로 많이 언급되었던 부분이죠. 딥러닝 모델의 복잡성과 해석 가능성이 부족하고 , 모델의 확장성(Scalabilty)과 실용성에 대한 우려가 남아있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 섹션에서는 PPG의 특징과 발전 과정에 대해서 언급합니다. PPG는 심혈관 지표를 모니터링하는 데 널리 사용되는 생체 신호 중 하나로 주목받고 있고,&lt;b&gt; 심박수(HR), 동맥 혈압(ABP), 혈중 산소 포화도(SpO2), 호흡률(RR)&lt;/b&gt;과 같은 중요한 생리적 매개변수를 제공하기 때문입니다.&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;심박수(HR)&lt;/b&gt; - 심장이 1분 동안 박동하는 횟수를 나타내는 지표. 일반적으로 맥박으로 측정합니다.&amp;nbsp;&lt;br /&gt;일반적으로 성인의 평균 정상 심박수는 60~100 bpm 입니다.&lt;br /&gt;심박수를 통해 신체의 대사 상태와 심혈관 건강 상태를 평가하는 데 중요한 역할을 합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$ \frac{\text{Number of beats in a time period}}{\text{Time period in seconds}} \times 60 $&amp;nbsp;&lt;br /&gt;&lt;br /&gt;-&amp;gt; 특정 시간 동안 측정된 심박수를 사용하여 분당 심박수로 계산합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;동맥 혈압(ABP)&lt;/b&gt; - 심장이 혈액을 동맥으로 펌핑할 때 혈관 벽에 가해지는 압력.&amp;nbsp;&lt;br /&gt;동맥 혈압은 &lt;b&gt;수축기 혈압(SBP)&lt;/b&gt;와 &lt;b&gt;이완기 혈압(DBP)&lt;/b&gt;로 나뉩니다. SBP의 경우 심장이 수축하여 혈액을 보낼 때의 최고 압력이고, DBP의 경우 심장이 이완하여 혈액이 채워질 때의 최저 압력을 나타냅니다.&amp;nbsp;&lt;br /&gt;&lt;b&gt;정상 혈압은 SBP &amp;lt; 120 mmHg, DBP &amp;lt; 80 mmHg&lt;/b&gt; 이고, 고혈압이나 저혈압은 심혈관 질환의 위험 요인입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$ MBP = \frac{2 \times \text{DBP} + \text{SBP}}{3} $&amp;nbsp;&lt;br /&gt;&lt;br /&gt;-&amp;gt; MBP(Mean Blood Pressure, 평균 혈압)는 한 사이클 동안 동맥 내에서 평균적인 혈압을 나타냅니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;혈중 산소 포화도(SpO2) -&amp;nbsp;&lt;/b&gt;혈액 내 산소가 결합된 헤모글로빈의 비율을 백분율로 나타낸 지표.&amp;nbsp;&lt;br /&gt;SpO2의 경우 비침습적 측정을 통해 산소 포화도를 평가할 수 있습니다.&amp;nbsp;&lt;br /&gt;정상 값의 경우 95~100% , 낮은 값은 90% 미만이고 저산소증(hypoxemia)의 위험이 있습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$ SpO2 = \frac{\text{Oxygenated Hemoglobin}}{\text{Total Hemoglobin}} \times 100 $&amp;nbsp;&lt;br /&gt;&lt;br /&gt;-&amp;gt; 산소가 결합된 헤모글로빈(Oxygenated Hemoglobin)의 비율을 백분율로 계산합니다. 산소포화도 센서(PPG 기반)에서 적색 및 적외선 흡수를 비교하여 산출합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;호흡률(RR) -&amp;nbsp;&lt;/b&gt;1분 동안 이루어지는 호흡 횟수.&lt;br /&gt;호흡은 폐가 산소를 들이마시고 이산화탄소를 내보내는 과정입니다.&amp;nbsp;&lt;br /&gt;성인의 평균 정상 호흡률은 12~20회 / 분입니다.&amp;nbsp;&lt;br /&gt;해당 지표는 호흡기 및 전신 건강 상태 평가, 응급 상황에서 중요한 바이탈 사인이 될 수 있습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$ RR = \frac{\text{Number of breaths in a time period}}{\text{Time period in seconds}} \times 60 $&lt;br /&gt;&lt;br /&gt;-&amp;gt; 특정 시간 동안 측정된 호흡 횟수를 사용하여 분당 호흡수(breaths per minute)로 계산합니다.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG는 스마트워치, 펄스 옥시미터, 스마트 링, 스카프 등 다양한 &lt;b&gt;웨어러블 기기에서 응용&lt;/b&gt;되고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;( Innovo Deluxe Fingertip pulse oximeter), smartwatches (e.g., Apple Watch Series 9), rings (e.g., Amovan Nova Ring), and even scarves (e.g., Manchester City Bar Scarf). )&amp;nbsp;&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG는 웨어러블 장치 및 헬스케어 기술의 중심으로 자리 잡았으며 이를 효과적으로 분석하기 위한 자동화된 딥러닝 모델의 중요성이 커지고 있습니다. 결과적으로 방대한 데이터가 축적되었고, 인간 전문가의 분석 능력을 초과하는 수준에 도달했습니다. 따라서 정확하고 자동화된 PPG 데이터 분석 방법의 필요성이 대두되었죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전통적인 머신러닝 방법은 PPG 데이터를 자동 분석하기 위해 수작업 특징 추출을 필요로 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;(&lt;i&gt;Traditional machine learning methods for automatic analysis of PPG data typically involve manual feature extraction [5, 6].&lt;/i&gt;)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구자들은 먼저 PPG 데이터에서 관련 특징을 식별 정의 및 선택한 뒤 이를 모델에 입력하여 최종 결과를 도출하는 방식이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 시간이 많이 소모되는 문제와 노동 집약적이라는 한계가 있습니다. 또한 사람이 직접 작업하기에 특징 범위가 제한적일 가능성이 있으며 데이터에 내재된 중요한 정보를 놓칠 가능성도 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;딥러닝 기반 접근 방식의 장점은 데이터를 기반으로 데이터에 숨겨진 의미 있는 패턴을 효과적으로 발견한다는 점입니다. 또한 기존 의료 지식을 넘어서는 특징을 자동으로 학습하게 되죠. 그리고 &lt;b&gt;End-to-End 분석 방법을 통해 수작업 특징 추출 및 선택이 필요하지 않습니다.&lt;/b&gt; 연구자는 데이터를 모델에 입력하기만 하면 모델이 자동으로 분석을 수행하죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결과적으로 &lt;b&gt;작업 효율성이 크게 향상되며, 연구자는 PPG의 다양한 작업 및 응용을 탐구할 시간을 확보&lt;/b&gt;하게 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Background&lt;/h2&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;PPG&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;The&amp;nbsp;principle&amp;nbsp;of&amp;nbsp;PPG&amp;nbsp;involves&amp;nbsp;the&amp;nbsp;measurement&amp;nbsp;of&amp;nbsp;variations&amp;nbsp;in&amp;nbsp;light&amp;nbsp;absorption&amp;nbsp;caused&amp;nbsp;by&amp;nbsp;the&amp;nbsp;pulsatile&amp;nbsp;nature&amp;nbsp;of&amp;nbsp;blood&amp;nbsp;flow&amp;nbsp;through&amp;nbsp;the&amp;nbsp;skin&amp;nbsp;tissue.&amp;nbsp;A&amp;nbsp;typical&amp;nbsp;PPG&amp;nbsp;sensor&amp;nbsp;consists&amp;nbsp;of&amp;nbsp;two&amp;nbsp;main&amp;nbsp;components:&amp;nbsp;a&amp;nbsp;light&amp;nbsp;source&amp;nbsp;and&amp;nbsp;a&amp;nbsp;photodetector&amp;nbsp;(PD).&amp;nbsp;The&amp;nbsp;light&amp;nbsp;source,&amp;nbsp;often&amp;nbsp;a&amp;nbsp;light&amp;nbsp;emitting&amp;nbsp;diode&amp;nbsp;(LED),&amp;nbsp;emits&amp;nbsp;light&amp;nbsp;into&amp;nbsp;the&amp;nbsp;skin&amp;nbsp;tissue,&amp;nbsp;while&amp;nbsp;the&amp;nbsp;PD&amp;nbsp;measures&amp;nbsp;the&amp;nbsp;amount&amp;nbsp;of&amp;nbsp;light&amp;nbsp;absorbed&amp;nbsp;or&amp;nbsp;reflected.&amp;nbsp;There&amp;nbsp;are&amp;nbsp;two&amp;nbsp;types&amp;nbsp;of&amp;nbsp;PPG:&amp;nbsp;transmittance&amp;nbsp;PPG&amp;nbsp;and&amp;nbsp;reflectance&amp;nbsp;PPG&amp;nbsp;(see&amp;nbsp;Figure&amp;nbsp;1)&amp;nbsp;[14].&amp;nbsp;Transmittance&amp;nbsp;PPG&amp;nbsp;involves&amp;nbsp;the&amp;nbsp;direct&amp;nbsp;transmission&amp;nbsp;of&amp;nbsp;light&amp;nbsp;through&amp;nbsp;the&amp;nbsp;tissue&amp;nbsp;to&amp;nbsp;a&amp;nbsp;PD&amp;nbsp;on&amp;nbsp;the&amp;nbsp;opposite&amp;nbsp;side&amp;nbsp;of&amp;nbsp;the&amp;nbsp;tissue,&amp;nbsp;while&amp;nbsp;reflectance&amp;nbsp;PPG&amp;nbsp;measures&amp;nbsp;the&amp;nbsp;light&amp;nbsp;reflected&amp;nbsp;back&amp;nbsp;from&amp;nbsp;the&amp;nbsp;tissue&amp;nbsp;to&amp;nbsp;a&amp;nbsp;PD&amp;nbsp;located&amp;nbsp;nearby.&amp;nbsp;Both&amp;nbsp;types&amp;nbsp;capture&amp;nbsp;the&amp;nbsp;variations&amp;nbsp;in&amp;nbsp;light&amp;nbsp;absorption&amp;nbsp;caused&amp;nbsp;by&amp;nbsp;the&amp;nbsp;pulsatile&amp;nbsp;blood&amp;nbsp;flow,&amp;nbsp;enabling&amp;nbsp;the&amp;nbsp;analysis&amp;nbsp;of&amp;nbsp;physiological&amp;nbsp;parameters&amp;nbsp;such&amp;nbsp;as&amp;nbsp;HR.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG의 원리에 대한 내용으로 Background 세션이 시작합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG의 원리는 피부 조직을 통해서 흐르는 맥동성 혈류에 의해 발생하는 빛 흡수 변화를 측정하는 데 기반을 둡니다. 일반적인 PPG 센서는 두 가지 주요 구성 요소로 이루어져 있습니다. (&lt;b&gt; 광원과 광검출기&lt;/b&gt; )&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;640&quot; data-origin-height=&quot;640&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/crnQ3i/btsKZyJVNS0/zsAPHTl4KZc8f6woMMnZhk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/crnQ3i/btsKZyJVNS0/zsAPHTl4KZc8f6woMMnZhk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/crnQ3i/btsKZyJVNS0/zsAPHTl4KZc8f6woMMnZhk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcrnQ3i%2FbtsKZyJVNS0%2FzsAPHTl4KZc8f6woMMnZhk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;437&quot; height=&quot;437&quot; data-origin-width=&quot;640&quot; data-origin-height=&quot;640&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- &lt;b&gt;광원&lt;/b&gt; : 주로 발광 다이오드(LED)를 사용하며, 피부 조직에 빛을 방출합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- &lt;b&gt;광검출기(PD)&lt;/b&gt; : 흡수되거나 반사된 빛의 양의 측정합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG는 &lt;b&gt;투과형 PPG(transmittance PPG)와 반사형 PPG(reflectance PPG)&lt;/b&gt;의 두 가지 유형으로 나뉩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- 투과형 PPG : 빛이 조직을 직접 통과하여 반대편에 있는 광검출기로 전달됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- 반사형 PPG : 조직에서 반사된 빛을 가까운 위치에 있는 광검출기가 측정합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;두 유형 모두 &lt;b&gt;맥동성 혈류&lt;/b&gt;로 인해 발생하는 빛 흡수의 변화를 포착하며, 이를 통해 심박수와 같은 생리적 매개변수를 분석할 수 있습니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;맥동성 혈류(Pulsatile Blood Flow)&amp;nbsp;&lt;br /&gt;맥동성 혈류는 &lt;u&gt;심장이 수축하고 이완하면서 혈액을 동맥으로 펌프질할 때 나타나는 혈류의 리듬감 있는 변화&lt;/u&gt;를 의미합니다.&amp;nbsp;&lt;br /&gt;&lt;b&gt;수축기(Systole)&lt;/b&gt;는 심장이 수축하여 혈액을 밀어낼 때 동맥 내 혈류 속도와 압력이 증가합니다. 그리고 &lt;b&gt;이완기(Diastole)&lt;/b&gt;는 심장이 이완하여 혈액을 채울 때 혈류 속도와 압력이 감소합니다.&amp;nbsp;&lt;br /&gt;이러한 주기적 변화가 맥박(pulse)으로 나타나며, 이를 기반으로 생리적 상태를 모니터링할 수 있습니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;맥동성 혈류와 PPG의 관계&lt;br /&gt;- PPG(광용적맥파) 신호는 맥동성 혈류로 인해 발생하는 빛 흡수 변화를 기반으로 합니다.&lt;br /&gt;- &lt;b&gt;맥동성 성분(pulsatile component)&lt;/b&gt; : 혈류의 변화를 반영하며, 주로 심박수와 동맥 혈압과 관련&lt;br /&gt;- &lt;b&gt;비맥동성 성분(non-pulsatile component)&lt;/b&gt; : 조직, 정맥 혈액, 기타 상수 성분으로 인해 발생.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;The interaction of light with human tissues is influenced by its wavelength, and PPG devices can utilize a range of wavelengths to capture physiological information. These can include red light (622-780 nm) [15], infrared light (780-2400 nm) [16], green light (500 - 570 nm) [17], and potentially other wavelengths as well. Recent research suggests that green light may outperform red and infrared light in certain scenarios due to its improved resistance to motion artifacts [18, 19]. However, it&amp;rsquo;s crucial to recognize that the choice of the optimal wavelength may differ based on the specific application and device design.&amp;nbsp;&amp;nbsp;Due to their portability, user-friendly operation, non-invasive nature, and the ability to provide valuable physiological data, PPG sensors have gained increasing popularity in both healthcare and medical devices today. Various forms of PPG devices (see Figure 1), such as smartwatches, scarves, rings, Bluetooth headsets, pulse oximeters, and bedside monitors, serve different purposes. Healthcare devices, in particular, play an increasingly important role in out-of-clinical health monitoring. Several studies have been conducted to validate their ability and reliability in healthcare tasks, such as HR monitoring [20, 21], SpO2 estimation [22], and sleep analysis [23, 24], revealing their enormous potential in self-health management.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;빛의 파장은 인체 조직과의 상호작용을 결정하며 PPG 장치는 다양한 파장을 활용하여 생리적 정보를 수집합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;주요 파장&lt;/b&gt;:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;적색광 (Red light)&lt;/b&gt;: 622&amp;ndash;780 nm【15】.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;적외선 (Infrared light)&lt;/b&gt;: 780&amp;ndash;2400 nm【16】.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;녹색광 (Green light)&lt;/b&gt;: 500&amp;ndash;570 nm【17】.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;기타 파장&lt;/b&gt;: 응용 및 장치 설계에 따라 선택 가능.&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근 연구에 따르면 &lt;b&gt;녹색광&lt;/b&gt;은 특정 상황에서 적색광 및 적외선보다 움직임 인공물(Motion Artifact)에 더 강한 저항성을 보여준다고 합니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;div&gt;
&lt;div&gt;
&lt;div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;[18] Alharbi S, Hu S, Mulvaney D, Blanos P. An applicable approach for extracting human heart rate and oxygen saturation during physical movements using a multi-wavelength illumination optoelectronic sensor system. In: Design and Quality for Biomedical Technologies XI. vol. 10486. SPIE; 2018. p. 85-99.&lt;/p&gt;
&lt;/div&gt;
&lt;div&gt;
&lt;div&gt;&lt;span&gt;[19] Alharbi S, Hu S, Mulvaney D, Barrett L, Yan L, Blanos P, et al. Oxygen saturation measurements from green and orange illuminations of multi-wavelength optoelectronic patch sensors. Sensors. 2018;19(1):118.&lt;/span&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Deep Learning&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1021&quot; data-origin-height=&quot;647&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b23WEh/btsKYB1LgAC/Al5ToAJBgGtGYaB4CRk2KK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b23WEh/btsKYB1LgAC/Al5ToAJBgGtGYaB4CRk2KK/img.png&quot; data-alt=&quot;Figure1 Overview of analysis based on the aspects of tasks, models and data&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b23WEh/btsKYB1LgAC/Al5ToAJBgGtGYaB4CRk2KK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb23WEh%2FbtsKYB1LgAC%2FAl5ToAJBgGtGYaB4CRk2KK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1021&quot; height=&quot;647&quot; data-origin-width=&quot;1021&quot; data-origin-height=&quot;647&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Figure1 Overview of analysis based on the aspects of tasks, models and data&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근 몇 년간 딥러닝 방법은 음성 인식, 컴퓨터 비전, 자연어 처리와 같은 다양한 응용 분야에서 유망한 결과를 보여주었습니. 딥러닝은 머신러닝의 하위 집합으로, 복잡한 데이터셋에서 학습하고 예측을 수행하기 위해 신경망을 활용하는 인공지능(AI)의 특정 분류입니다. 대규모 데이터에서 의미 있는 패턴과 특징을 자동으로 정확하게 추출할 수 있는 능력 덕분에, 딥러닝은 많은 작업에서 널리 사용되고 있으며, PPG 분석도 예외는 아닙니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에 따르면 딥러닝은 크게&lt;b&gt; 판별 모델(Discriminative Models)과 생성 모델(Generative Models)&lt;/b&gt;로 나눌 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;판별 모델의 경우 입력 데이터와 해당 출력 값 간의 관계를 학습하여 정확한 분류 및 회귀 예측을 수행합니다. 대표적인 예시로 완전 연결 신경망(Fully Connected Later), 합성곱 신경망(CNN), 순환 신경망(RNN), Transformer 등이 있습니다. 반면 생성 모델은 데이터의 근본적인 분포를 이해하고 학습 데이터와 유사한 새로운 샘플을 생성하는 것을 목표로 합니다. 생성 모델의 예로는 오토인코더(AE), 생성적 적대 신경망(GAN) 등이 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Methods&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;524&quot; data-origin-height=&quot;635&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/HVsX6/btsKYrSvflm/iwFrzxPxbx5r4Y0kjAkofk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/HVsX6/btsKYrSvflm/iwFrzxPxbx5r4Y0kjAkofk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/HVsX6/btsKYrSvflm/iwFrzxPxbx5r4Y0kjAkofk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FHVsX6%2FbtsKYrSvflm%2FiwFrzxPxbx5r4Y0kjAkofk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;524&quot; height=&quot;635&quot; data-origin-width=&quot;524&quot; data-origin-height=&quot;635&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Methods 섹션에서는 저자들이 논문을 찾고 선택하는 방법론에 대한 설명이 나와있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 딥러닝 기술을 PPG 데이터에 적용한 논문을 대상으로 2017년 1월 1일부터 2023년 7월 31일까지의 문헌을 검색하였습니다. 플랫폼은 Google Scholar, PubMed, Dimensions 데이터 베이스입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;검색 키워드는 &quot;Deep Learning&quot; or &quot;DL&quot; 그리고 &quot;photoplethysmography&quot; or &quot;PPG&quot; 입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Figure 2&lt;/b&gt;에 제시된 문헌 검색 및 선택 워크플로는 다음과 같은 &lt;b&gt;4단계 과정&lt;/b&gt;으로 구성됩니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;Identification&lt;/b&gt; (검색):
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;총 &lt;b&gt;646편의 논문&lt;/b&gt;을 검색.&lt;/li&gt;
&lt;li&gt;중복 제거 후 &lt;b&gt;491편&lt;/b&gt;으로 축소.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Screening&lt;/b&gt; (제목 및 초록 검토):
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;논문의 제목과 초록을 검토하여 제외 기준에 따라 평가:
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;영어로 작성되지 않은 논문.&lt;/li&gt;
&lt;li&gt;접촉(contact) 기반 PPG 데이터를 다루지 않는 논문.&lt;/li&gt;
&lt;li&gt;딥러닝 기법을 사용하지 않은 논문.&lt;/li&gt;
&lt;li&gt;정량적 평가(quantitative evaluation)가 부족한 논문.&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;li&gt;이 과정에서 &lt;b&gt;237편의 논문&lt;/b&gt;이 제외.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Eligibility&lt;/b&gt; (전문 검토):
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;전문(full-text)을 검토하여 추가로 &lt;b&gt;61편의 논문&lt;/b&gt;을 제외.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Inclusion&lt;/b&gt; (최종 선정):
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;최종적으로 &lt;b&gt;193편의 논문&lt;/b&gt;을 선정.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결과적으로 초기 646편의 논문 중 중복 및 기준 미달 논문을 제거한 뒤, 총 193편의 논문이 최종 분석에 포함되었습니다. 이 과정을 통해서 딥러닝과 PPG 데이터를 다룬 고품질 연구를 선정할 수 있었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Results&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 세션에서는 의료 관련 테스크와 비의료 관련 테스크가 나뉘어서 여러 연구들을 비교합니다.&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&amp;nbsp;&lt;/h4&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Medical-related tasks&amp;nbsp;&lt;/h3&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;혈압 분석 - Blood Pressure analysis&amp;nbsp;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;고혈압(Hypertension)&lt;/b&gt;은 매우 흔한 심혈관 질환으로 심장, 혈관, 뇌, 신장과 같은 주요 장기에 손상을 초래하여 개인의 건강에 상당한 위협을 가합니다. 그러나 상당수의 사람들이 자신들의 비정상적인 혈압을 인지하지 못하고 있으며 이는 향후 심각한 건강 위험이 될 가능성이 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전통적인 혈압 측정 방법은 침습적이거나 간헐적인 cuff 기반 장치에 의존하므로 일상생활에서의 연속적인 혈압 모니터링에 적합하지 않습니다. 여러 연구에 따르면 PPG는 혈압과 상관관계가 있는 신호로 밝혀졌습니다. 따라서 현재 연구들은 PPG와 딥러닝을 통합하여 혈압을 정확히 분류하고 추정하는 데 초점을 맞추고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;혈압 분류 영역에서 주요 목표는 주어진 PPG 세그먼트를 해당 혈압 범주에 매핑하는 것입니다. 예를 들어, 다른 연구에서는 CNN과 LSTM 기반 아키텍처를 제안하여 혈압을 저혈압, 정상혈압, 전고혈압, 1단계 고혈압, 2단계 고혈압의 다섯 가지 그룹으로 분류하였습니다. 이 연구는&lt;b&gt; UCI_BP(UCI 머신러닝 혈압)&lt;/b&gt; 데이터베이스를 사용하였으며, 이 데이터베이스는 12,000개의 동시 PPG, ECG, 및 침습적으로 측정된 ABP 세그먼트를 포함하고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한, 고혈압이 초래하는 높은 위험을 감안할 때, 고혈압의 정확한 분류와 평가에 중점을 둔 연구도 진행되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1337&quot; data-origin-height=&quot;712&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/VG7zH/btsKYhWSTRo/R0SbJfBKBN2TT930VEj4Sk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/VG7zH/btsKYhWSTRo/R0SbJfBKBN2TT930VEj4Sk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/VG7zH/btsKYhWSTRo/R0SbJfBKBN2TT930VEj4Sk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FVG7zH%2FbtsKYhWSTRo%2FR0SbJfBKBN2TT930VEj4Sk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1337&quot; height=&quot;712&quot; data-origin-width=&quot;1337&quot; data-origin-height=&quot;712&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대부분의 연구는 비침습적인 혈압 추정에 중점을 두며, 이는 크게 두 가지 주요 그룹으로 나눌 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하나의 그룹은 입력 PPG 신호를 기반으로 &lt;b&gt;수축기 혈압(SBP), 이완기 혈압(DBP), 평균 동맥압(MAP)&amp;nbsp;&lt;/b&gt;과 같은 이산적인 혈압 값을 얻는 것을 목표로 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다른 그룹은 &lt;b&gt;연속적인 혈압 파형(continuous BP waveform)&lt;/b&gt;을 재구성하는 데 집중하며, 이를 통해 더 포괄적인 혈압 정보를 제공합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어, DeepCNAP 라는 모델은 ResUNet과 self-attention을 결합한 모델을 개발하여 연속적인 ABP(동맥혈압) 파형을 추출하였으며, MIMIC 데이터베이스에서 다음과 같은 MAE를 달성했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;SBP: &lt;span&gt;&lt;span&gt;3.40&amp;plusmn;4.36&amp;thinsp;mmHg3.40 \pm 4.36 \, \text{mmHg}&lt;/span&gt;&lt;span aria-hidden=&quot;true&quot;&gt;&lt;span&gt;&lt;span&gt;3.40&lt;/span&gt;&lt;span&gt;&amp;plusmn;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;4.36&lt;/span&gt;&lt;span&gt;&lt;span&gt;mmHg&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;,&lt;/li&gt;
&lt;li&gt;DBP: &lt;span&gt;&lt;span&gt;1.75&amp;plusmn;2.25&amp;thinsp;mmHg1.75 \pm 2.25 \, \text{mmHg}&lt;/span&gt;&lt;span aria-hidden=&quot;true&quot;&gt;&lt;span&gt;&lt;span&gt;1.75&lt;/span&gt;&lt;span&gt;&amp;plusmn;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;2.25&lt;/span&gt;&lt;span&gt;&lt;span&gt;mmHg&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;,&lt;/li&gt;
&lt;li&gt;혈압 파형: &lt;span&gt;&lt;span&gt;3.23&amp;plusmn;2.21&amp;thinsp;mmHg3.23 \pm 2.21 \, \text{mmHg}&lt;/span&gt;&lt;span aria-hidden=&quot;true&quot;&gt;&lt;span&gt;&lt;span&gt;3.23&lt;/span&gt;&lt;span&gt;&amp;plusmn;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;2.21&lt;/span&gt;&lt;span&gt;&lt;span&gt;mmHg&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한, 기존 데이터베이스 중 일부에는 &lt;b&gt;ECG, PPG, ABP 신호가 동기화&lt;/b&gt;되어 포함되어 있다는 점이 관찰되었습니다. 여러 연구는 ECG, PPG, ABP 신호 간의 상관관계를 입증하였으며, 이에 따라 일부 연구자들은 &lt;b&gt;동기화된 ECG 및 PPG 신호를 모델의 입력&lt;/b&gt;으로 통합하여 이들 신호 간 관계에 대한 보다 포괄적인 이해를 도모하였습니다.&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;심혈관 모니터링 및 진단 - Cardiovascular monitoring and diagnosis&amp;nbsp;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG 신호는 인간의 심혈관계 정보를 추출하는 데 유용하며, 다양한 응용 분야에서 유망한 결과를 보여주고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어, 다음과 같은 부정맥의 탐지 및 분류에 활용되고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;조기 심실 수축(premature ventricular contraction),&lt;/li&gt;
&lt;li&gt;조기 심방 수축(premature atrial contraction),&lt;/li&gt;
&lt;li&gt;심실 빈맥(ventricular tachycardia),&lt;/li&gt;
&lt;li&gt;상심실성 빈맥(supraventricular tachycardia),&lt;/li&gt;
&lt;li&gt;심방세동(AF)&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 PPG 신호는 &lt;b&gt;심박수 추정(HR), 말초 동맥 질환(Peripheral arterial disease) 평가, 발목 상완 지수(ankle brachial index) 분류, 심혈관 노화 평가, 심박수 변동성(heart rate variability) 계산&lt;/b&gt;과 같은 심혈관 관련 작업에서도 유용성이 입증되었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여러 부정맥 중에서도&lt;b&gt; 심방세동(AF) 탐지&lt;/b&gt;는 특히 주목할 가치가 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- 이진 분류 : AF와 none-AF를 구분하는 테스크&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- 다중 클래스 분류 : 동성 리듬(sinus rhythm), AF, 기타 부정맥으로 분류&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;수면 건강 - Sleep health&amp;nbsp;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;폐쇄성 수면무호흡증(OSA)과 불면증과 같은 수면 장애로 인해 발생하는 부적절하거나 부족한 수면은 내분비계와 대사계의 기능 이상 고차원적인 대뇌 피질의 기능의 손상, 신경계 질환 등 다양한 생리적 이상과 연관되어 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다중수면검사(Polysomnography, PSG)는 수면 연구실에서 사용되는 표준 검사법으로, 비용이 많이 들고 시간이 많이 소요됩니다.&amp;nbsp; 이는 수면의 질에 부정적인 영향을 미칠 수 있죠. 그래서 최근 PPG 기반 딥러닝 기법이 수면 건강 분야에서 주목받고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현재 EEG(뇌파) 기반으로 수행되는 수면 단계 분류는 EEG 설정의 복잡성과 수작업 채점의 시간 소모로 인해 비효율적입니다. 이를 간소화하기 위해 타 연에서는 &lt;b&gt;CRNN(CNN-GRU) 아키텍처&lt;/b&gt;를 설계하여 수면 단계를 자동으로 식별하도록 하였습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;데이터&lt;/b&gt;: 폐쇄성 수면무호흡증(OSA) 의심 환자(n = 894)의 &lt;b&gt;투과형 PPG 신호&lt;/b&gt;를 사용.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;수면 단계 분류&lt;/b&gt;:
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;3단계 분류&lt;/b&gt;: 깨어 있음(Wake)/비REM(NREM)/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 80.1%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.65.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;4단계 분류&lt;/b&gt;: 깨어 있음(Wake)/N1+N2/N3/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 68.5%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.54.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;5단계 분류&lt;/b&gt;: 깨어 있음(Wake)/N1/N2/N3/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 64.1%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.51.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현재 EEG(뇌파) 기반으로 수행되는 수면 단계 분류는 EEG 설정의 복잡성과 수작업 채점의 시간 소모로 인해 비효율적입니다. 이를 간소화하기 위해 타 연구에서는 &lt;b&gt;CRNN(CNN-GRU) 아키텍처&lt;/b&gt;를 설계하여 수면 단계를 자동으로 식별하도록 하였습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;데이터&lt;/b&gt;: 폐쇄성 수면무호흡증(OSA) 의심 환자(n = 894)의 &lt;b&gt;투과형 PPG 신호&lt;/b&gt;를 사용.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;수면 단계 분류&lt;/b&gt;:
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;3단계 분류&lt;/b&gt;: 깨어 있음(Wake)/비REM(NREM)/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 80.1%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.65.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;4단계 분류&lt;/b&gt;: 깨어 있음(Wake)/N1+N2/N3/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 68.5%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.54.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;5단계 분류&lt;/b&gt;: 깨어 있음(Wake)/N1/N2/N3/REM.
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정확도&lt;/b&gt;: 64.1%, &lt;b&gt;Cohen&amp;rsquo;s &amp;kappa;&lt;/b&gt;: 0.51.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;수면 단계 식별과 병행하여, PPG 신호와 딥러닝을 결합하여 OSA를 탐지하는 연구도 진행되고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;( &lt;span&gt;[79] Papini GB, Fonseca P, van Gilst MM, Bergmans JW, Vullings R, Overeem S. Wearable monitoring of sleepdisordered breathing: Estimation of the apnea&amp;ndash;hypopnea index using wrist-worn reflective photoplethysmography. Scientific reports. 2020;10(1):13512 )&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;해당 연구에서는 독립된 데이터셋(임상적으로 이질적인 188개의 기록)을 사용한 테스트 결과, PSG 표준 검사와 높은 일치도를 보였습니다. 추정된 무호흡-저호흡 지수(AHI)는 OSA의 심각도를 평가하는 데 신뢰할 수 있는 결과를 보였습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;혈당 분석 - Blood glucose analysis&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;당뇨병은 &lt;b&gt;인슐린 생성 세포의 손실&lt;/b&gt;, &lt;b&gt;인슐린 작용의 부족&lt;/b&gt;, 또는 이 두 가지 요인으로 인해 탄수화물, 지방, 단백질 대사에 장애가 발생하며, &lt;b&gt;혈당 수치의 상승&lt;/b&gt;으로 특징지어지는 질환입니다. 기존의 침습적인 채혈(손가락 채혈) 방식은 불편함을 초래하므로, &lt;b&gt;비침습적이고 편리한 혈당 측정 방법&lt;/b&gt;에 대한 수요가 높습니다. 특정 파장에서 &lt;b&gt;혈당 수치가 빛의 흡수 및 반사 신호&lt;/b&gt;에 영향을 미치는 특성 덕분에, &lt;b&gt;PPG 기반 혈당 평가&lt;/b&gt;가 이론적으로 가능하며 최근 이에 대한 연구가 진행되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;당뇨병 탐지에는 보통 CNN을 기반으로 한 당뇨병 분류기가 연구되었습니다. PPG 신호와 고혈압 분류, 나이, 성별을 결합한 입력 데이터를 사용하여 CNN 기반 당뇨병 분류기를 개발하였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 혈당 값 추정을 위해 약물 복용 여부의 영향에 대한 연구도 진행되었습니다. 약물을 복용한 그룹과 복용하지 않은 그룹을 나눠서 비침습적 혈당 예측 정확도에 약물이 미치는 영향을 조사했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PPG 기반 혈당 분석은 &lt;b&gt;비침습적 혈당 측정&lt;/b&gt;의 실현 가능성을 보여주며, 약물 영향 및 추가 생리학적 지표 활용을 통해 정확도를 크게 개선할 가능성을 제시합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;지금까지 봤던 Medical related 에서 연구되는 분야를 정리해보면 아래와 같겠네요!&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1500&quot; data-origin-height=&quot;339&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/eSn89y/btsKX0nF7hp/UcCjfZawaIb6FrkAffc2f0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/eSn89y/btsKX0nF7hp/UcCjfZawaIb6FrkAffc2f0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/eSn89y/btsKX0nF7hp/UcCjfZawaIb6FrkAffc2f0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FeSn89y%2FbtsKX0nF7hp%2FUcCjfZawaIb6FrkAffc2f0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1500&quot; height=&quot;339&quot; data-origin-width=&quot;1500&quot; data-origin-height=&quot;339&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1515&quot; data-origin-height=&quot;285&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/oNae1/btsKXibiSHp/bR9EjurkKSTJJro2Z5spJk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/oNae1/btsKXibiSHp/bR9EjurkKSTJJro2Z5spJk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/oNae1/btsKXibiSHp/bR9EjurkKSTJJro2Z5spJk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FoNae1%2FbtsKXibiSHp%2FbR9EjurkKSTJJro2Z5spJk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1515&quot; height=&quot;285&quot; data-origin-width=&quot;1515&quot; data-origin-height=&quot;285&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/139</guid>
      <comments>https://minyoungxi.tistory.com/139#entry139comment</comments>
      <pubDate>Wed, 27 Nov 2024 15:19:33 +0900</pubDate>
    </item>
    <item>
      <title>[Bioinformatics] - 생물학적 서열의 기본적 처리</title>
      <link>https://minyoungxi.tistory.com/138</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;이전에 계속 언급했듯이 생물학적 시스템과 유전 정보는 DNA에 암호화돼 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생명정보학 알고리즘과 도구들은 실용적인 목적으로 DNA를 1차원적 뉴클레오티드 서열로 표기합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA 또는 RNA 분자는 네 개의 뉴클레오티드로 구성돼 있으므로 컴퓨터로 표현할 때 네 개의 독립적인 문자로 표현합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA의 경우 A,C,G,T 로 표현합니다. 이는 각각 아데닌, 시토닌, 구아닌, 티민이며 RNA의 경우 T 대신 U인 우라실로 표현합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA의 기본 알파벳에는 네 개의 뉴클레오티드만 포함돼 있지만, IUPAC은 확장된 심볼들을 정리해 뉴클레오티드의 모호성을 허용하는 확장된 심볼들을 정의했습니다. 확장된 심볼들을 통해 중합 효소 연쇄 반응(PCR) 프라이머의 디자인과 같이 불확실한 뉴클레오티드가 있는 경우에 유용하게 표현할 수 있게 됐습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생물학적으로 중요한 또 다른 서열은 단백질 서열이며 아미노산 서열로 구성돼 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전 코드로 20개의 아미노산이 암호화될 수 있으므로 표 1을 참조하면 서열은 20개의 각각 다른 알파벳 문자로 이뤄졌음을 확인할 수 있습니다. 종결코돈을 표현하는 문자도 있어야 합니다. 종결코돈 문자를 DNA 번역을 자동으로 수행하는 도구에서 사용합니다. 종결코돈으로 가장 많이 사용하는 문자는 &lt;b&gt;언더스코어 또는 별표&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;표1. 뉴클레오티드를 표현하는 IUPAC 심볼&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심볼 이름 뉴클레오티드&lt;/p&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%;&quot; border=&quot;1&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;A&lt;/td&gt;
&lt;td&gt;아데닌&lt;/td&gt;
&lt;td&gt;A&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;C&lt;/td&gt;
&lt;td&gt;시토닌&lt;/td&gt;
&lt;td&gt;C&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;G&lt;/td&gt;
&lt;td&gt;구아닌&lt;/td&gt;
&lt;td&gt;G&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;T&lt;/td&gt;
&lt;td&gt;티민&lt;/td&gt;
&lt;td&gt;T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;U&lt;/td&gt;
&lt;td&gt;우라실&lt;/td&gt;
&lt;td&gt;U&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;K&lt;/td&gt;
&lt;td&gt;케토&lt;/td&gt;
&lt;td&gt;G, T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;M&lt;/td&gt;
&lt;td&gt;아미노&lt;/td&gt;
&lt;td&gt;A, C&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;R&lt;/td&gt;
&lt;td&gt;퓨린&lt;/td&gt;
&lt;td&gt;A, G&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;S&lt;/td&gt;
&lt;td&gt;강함&lt;/td&gt;
&lt;td&gt;C, G&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;W&lt;/td&gt;
&lt;td&gt;약함&lt;/td&gt;
&lt;td&gt;A, T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Y&lt;/td&gt;
&lt;td&gt;피리미딘&lt;/td&gt;
&lt;td&gt;C, T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;B&lt;/td&gt;
&lt;td&gt;A 아님&lt;/td&gt;
&lt;td&gt;C, G, T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;D&lt;/td&gt;
&lt;td&gt;C 아님&lt;/td&gt;
&lt;td&gt;A, G, T&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;H&lt;/td&gt;
&lt;td&gt;G 아님&lt;/td&gt;
&lt;td&gt;A, C, G&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V&lt;/td&gt;
&lt;td&gt;T 아님&lt;/td&gt;
&lt;td&gt;A, C, G&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;N&lt;/td&gt;
&lt;td&gt;모든 염기&lt;/td&gt;
&lt;td&gt;A, C, G, T&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;표2. 아미노산을 표현하는 IUPAC 심볼&lt;/p&gt;
&lt;table style=&quot;border-collapse: collapse; width: 100%;&quot; border=&quot;1&quot; data-ke-align=&quot;alignLeft&quot;&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;A&lt;/td&gt;
&lt;td&gt;알라닌&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;C&lt;/td&gt;
&lt;td&gt;시스테인&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;D&lt;/td&gt;
&lt;td&gt;아스파르트산&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;E&lt;/td&gt;
&lt;td&gt;글루탐산&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;F&lt;/td&gt;
&lt;td&gt;페닐알라닌&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;G&lt;/td&gt;
&lt;td&gt;글라이신&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;H&lt;/td&gt;
&lt;td&gt;히스티딘&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;I&lt;/td&gt;
&lt;td&gt;아이소류신&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;L&lt;/td&gt;
&lt;td&gt;라이신&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;M&lt;/td&gt;
&lt;td&gt;메티오닌&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;N&lt;/td&gt;
&lt;td&gt;아스파라간&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;P&lt;/td&gt;
&lt;td&gt;프롤린&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Q&lt;/td&gt;
&lt;td&gt;글루타민&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;R&lt;/td&gt;
&lt;td&gt;아르기닌&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;S&lt;/td&gt;
&lt;td&gt;세린&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;T&lt;/td&gt;
&lt;td&gt;트레오닌&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;V&lt;/td&gt;
&lt;td&gt;발린&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;T&lt;/td&gt;
&lt;td&gt;트립토판&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Y&lt;/td&gt;
&lt;td&gt;타이로신&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;함수1. DNA의 서열이 유효한지 확인하기. 서열이 유효하다면 True, 유효하지 않다면 False를 반환&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522096272&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def validate_dna (dna_seq):
    seqm = dna_seq.upper()
    valid = seqm.count(&quot;A&quot;) + seqm.count(&quot;C&quot;) + seqm.count(&quot;G&quot;) + seqm.count(&quot;T&quot;)
    if valid == len(seqm): return True
    else: return False 

validate_dna(&quot;atgcgatcgattcggagcg&quot;)

True&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;함수2. 서열에서 각 심볼의 빈도를 계산. 결과로 딕셔너리를 반환.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522107031&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def frequency (seq):
    dic = {}
    for s in seq.upper():
        if s in dic: dic[s] += 1
        else: dic[s] = 1
    return dic

frequency(&quot;atgcgatcgattcggagcg&quot;)

{'A': 4, 'T': 4, 'G': 7, 'C': 4}&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;입력받은 아미노산 서열의 빈도를 계산. 결과 값으로 가장 많이 출현한 아미노산의 심볼과 출현한 값을 출력합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522117260&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;seq_aa = input(&quot;Protein sequence : &quot;)
freq_aa = frequency(seq_aa)
list_f = sorted(freq_aa.items(), key=lambda x: x[1], reverse=True)

for (k,v) in list_f:
    print(&quot;Aminocaid:&quot;, k, &quot;:&quot;, v)
    
Aminocaid: A : 2
Aminocaid: T : 1
Aminocaid: G : 1&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;GC 함량의 계산은 DNA 서열에서 &amp;lsquo;G&amp;rsquo;와 &amp;lsquo;C&amp;rsquo; 뉴클레오티드의 비율을 계산하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522126917&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def gc_content (dna_seq): 
    gc_count = 0
    for s in dna_seq:
        if s in &quot;GCgc&quot;: gc_count += 1
    return gc_count / len(dna_seq)

gc_content(&quot;AAATGGCGCGCGC&quot;)

0.6923076923076923&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전자 또는 엑손을 찾는 경우처럼 GC 함량을 계산해야 할 때가 있습니다. 아래의 스크립트의 함수는 중첩되지 않는 k 길이만큼의 부분 서열에 대한 GC 함량을 계산합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522137218&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def gc_content_subseq (dna_seq, k=100):
    &quot;&quot;&quot; 겹치지 않는 k 길이의 부분 서열에 대한 GC 함량을 리스트로 반환한다. &quot;&quot;&quot;
    res = []
    for i in range(0, len(dna_seq)-k+1, k):
        subseq = dna_seq[i:i+k]
        gc = gc_content(subseq)
        res.append(gc)
    return res&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;전사와 역상보&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA에서 RNA로의 전사는 DNA에 포함된 유전 정보로부터 단백질을 합성하는 전체 과정에서 기본적인 단계입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전사를 구현하는 함수를 이해하기 위해 DNA 분자가 서로 반대 방향으로 읽히는 두 개의 상보적 가닥으로 구성돼 있음을 기억해봅시다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전사가 일어나면 두 가닥이 나뉘고 새로운 RNA 서열이 해당 DNA 가닥에 상보적으로 생성됩니다. 따라서 해당 DNA 가닥은 주형 가닥(template strand)에 상보적인 가닥인 비주형 가닥(coding strand)과 유사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단지 뉴클레오티드의 &amp;lsquo;T&amp;rsquo;가 &amp;lsquo;U&amp;rsquo;로 바뀌기만 했죠? 이러한 맥락에서 DNA 가닥을 입력하면 간단히 &amp;lsquo;T&amp;rsquo;를 &amp;lsquo;U&amp;rsquo;로 대체해 RNA 서열을 얻을 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 파이썬 코드에서는 입력한 DNA 서열이 유효한지 검사하고 유효하지 않다면 예외를 발생시켜 프로그램을 종료합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;replace() 를 사용해서 모든 &amp;lsquo;T&amp;rsquo; 문자를 &amp;lsquo;U&amp;rsquo;로 바꿔서 새로운 문자열을 반환하고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522155324&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def transcription (dna_seq):
    assert validate_dna(dna_seq),  &quot;Invalid DNA sequence&quot;
    return dna_seq.upper().replace(&quot;T&quot;,&quot;U&quot;)    

transcription(&quot;atgcgatcgattcggagcg&quot;)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이전의 함수들은 하나의 DNA 서열만 주어지므로 주어진 서열의 상보적 서열도 고려해야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실제로 생물정보학 데이터베이스에서는 한 가닥의 DNA 서열만 제공되므로 상보적 가닥을 처리해야 하죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 함수는 입력된 DNA 서열에 역상보적인 서열을 결과로 만듭니다. 상보적 서열은 &amp;lsquo;A&amp;rsquo;가 &amp;lsquo;T&amp;rsquo;로, &amp;lsquo;C&amp;rsquo;가 &amp;lsquo;G&amp;rsquo;로 바뀌는 것을 의미합니다. 또한 역서열을 만들기 위해 for문을 돌 때 결과로 만드는 문자열의 가장 앞에 새로운 문자를 추가하는 방식으로 구현합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;번역&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포에서 단백질은 &lt;b&gt;전령 RNA(messenger RNA, mRNA)&lt;/b&gt;로부터 번역이라 불리는 과정을 거쳐 아미노산의 체인을 만들며 합성됩니다. DNA에서 mRNA로의 전사 과정은 어려운 과정이 아니었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번에는 DNA에서부터 단백질로 바로 번역하는 과정을 생각해봅시다. 번역을 하는 컴퓨터의 동작 방식은 다음과 같습니다.&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;번역할 DNA 서열은 겹치지 않게 세 개씩 문자를 읽어 코돈이라 불리는 하위 서열을 만듭니다.&lt;/li&gt;
&lt;li&gt;각 코돈에 대해 아미노산은 변환 표에 따라 번역됩니다.&lt;/li&gt;
&lt;li&gt;변환된 단백질 서열은 순서를 맞춰서 결과가 생성됩니다.&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;코돈에서 아미노산으로 변환하는 핵심적인 데이터 구조는 변환 표이며, 이는 파이썬의 딕셔너리 자료 구조로 이뤄집니다. 사전의 key는 64개의 코돈이고 해당 value는 아미노산입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 함수는 내부에 변환 사전을 미리 정의하고 이를 참조하여 변환 과정을 진행합니다. 만약 유효하지 않은 코돈이 함수에 전달된다면 None이 반환됩니다. 또한 종결 코돈이 &amp;lsquo;_&amp;rsquo; 심볼을 반환하는 것을 확인해봅시다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522179218&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def translate_codon (cod):
    tc = {&quot;GCT&quot;:&quot;A&quot;, &quot;GCC&quot;:&quot;A&quot;, &quot;GCA&quot;:&quot;A&quot;, &quot;GCG&quot;:&quot;A&quot;, 
      &quot;TGT&quot;:&quot;C&quot;, &quot;TGC&quot;:&quot;C&quot;,
      &quot;GAT&quot;:&quot;D&quot;, &quot;GAC&quot;:&quot;D&quot;,
      &quot;GAA&quot;:&quot;E&quot;, &quot;GAG&quot;:&quot;E&quot;,
      &quot;TTT&quot;:&quot;F&quot;, &quot;TTC&quot;:&quot;F&quot;,
      &quot;GGT&quot;:&quot;G&quot;, &quot;GGC&quot;:&quot;G&quot;, &quot;GGA&quot;:&quot;G&quot;, &quot;GGG&quot;:&quot;G&quot;,
      &quot;CAT&quot;:&quot;H&quot;, &quot;CAC&quot;:&quot;H&quot;,
      &quot;ATA&quot;:&quot;I&quot;, &quot;ATT&quot;:&quot;I&quot;, &quot;ATC&quot;:&quot;I&quot;,
      &quot;AAA&quot;:&quot;K&quot;, &quot;AAG&quot;:&quot;K&quot;,
      &quot;TTA&quot;:&quot;L&quot;, &quot;TTG&quot;:&quot;L&quot;, &quot;CTT&quot;:&quot;L&quot;, &quot;CTC&quot;:&quot;L&quot;, &quot;CTA&quot;:&quot;L&quot;, &quot;CTG&quot;:&quot;L&quot;,
      &quot;ATG&quot;:&quot;M&quot;, &quot;AAT&quot;:&quot;N&quot;, &quot;AAC&quot;:&quot;N&quot;,
      &quot;CCT&quot;:&quot;P&quot;, &quot;CCC&quot;:&quot;P&quot;, &quot;CCA&quot;:&quot;P&quot;, &quot;CCG&quot;:&quot;P&quot;,
      &quot;CAA&quot;:&quot;Q&quot;, &quot;CAG&quot;:&quot;Q&quot;,
      &quot;CGT&quot;:&quot;R&quot;, &quot;CGC&quot;:&quot;R&quot;, &quot;CGA&quot;:&quot;R&quot;, &quot;CGG&quot;:&quot;R&quot;, &quot;AGA&quot;:&quot;R&quot;, &quot;AGG&quot;:&quot;R&quot;,
      &quot;TCT&quot;:&quot;S&quot;, &quot;TCC&quot;:&quot;S&quot;, &quot;TCA&quot;:&quot;S&quot;, &quot;TCG&quot;:&quot;S&quot;, &quot;AGT&quot;:&quot;S&quot;, &quot;AGC&quot;:&quot;S&quot;,
      &quot;ACT&quot;:&quot;T&quot;, &quot;ACC&quot;:&quot;T&quot;, &quot;ACA&quot;:&quot;T&quot;, &quot;ACG&quot;:&quot;T&quot;,
      &quot;GTT&quot;:&quot;V&quot;, &quot;GTC&quot;:&quot;V&quot;, &quot;GTA&quot;:&quot;V&quot;, &quot;GTG&quot;:&quot;V&quot;,
      &quot;TGG&quot;:&quot;W&quot;,
      &quot;TAT&quot;:&quot;Y&quot;, &quot;TAC&quot;:&quot;Y&quot;,
      &quot;TAA&quot;:&quot;_&quot;, &quot;TAG&quot;:&quot;_&quot;, &quot;TGA&quot;:&quot;_&quot;}
    if cod in tc: return tc[cod]
    else: return None&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기에서 고려해야 할 사항은 표준 유전 코드가 매번 통용되지 않는다는 점입니다. 진핵세포의 미토콘드리아와 같은 몇몇 유기체는 단백질 합성에 다른 코돈 테이블을 가지고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 함수를 사용해 전체 DNA 서열을 번역하는 함수를 작성할 수 있습니다. 이 함수는 DNA 서열과 처음 번역하는 위치를 입력받아 해당하는 아미노산 서열을 결과로 반환합니다. DNA 서열에서 코돈으로 분할하는 것은 range 함수에 적절하게 인덱스를 사용해 진행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1732522196289&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def translate_seq (dna_seq, ini_pos = 0):
    &quot;&quot;&quot; Translates a DNA sequence into an aminoacid sequence. &quot;&quot;&quot;
    assert validate_dna(dna_seq), &quot;Invalid DNA sequence&quot;
    seqm = dna_seq.upper()
    seq_aa = &quot;&quot;
    for pos in range(ini_pos,len(seqm)-2,3):
        cod = seqm[pos:pos+3]
        seq_aa += translate_codon(cod)
    return seq_aa


def codon_usage(dna_seq, aa):
    &quot;&quot;&quot;Provides the frequency of each codon encoding a given aminoacid, in a DNA sequence .&quot;&quot;&quot;
    assert validate_dna(dna_seq), &quot;Invalid DNA sequence&quot;
    seqm = dna_seq.upper()
    dic = {}
    total = 0
    for i in range(0, len(seqm)-2, 3):
        cod = seqm[i:i+3]
        if translate_codon(cod) == aa:
            if cod in dic: 
                dic[cod] += 1
            else: dic[cod] = 1
            total += 1
    if total &amp;gt;0:
        for k in dic:
            dic[k] /= total
    return dic&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전 코드는 중복되므로 반복되는 값이 있습니다. 예를 들어 하나의 아미노산은 여러 개의 다른 코돈으로 암호화 됩니다. 이를 일반적으로 &lt;b&gt;코돈 사용(Codon Usage)&lt;/b&gt;이라고 부릅니다. 코돈 사용의 통계를 다른 종의 유전자에 적용해보면 재미있는 결과를 얻을 수 있습니다.&lt;/p&gt;</description>
      <category>Bioinformatics</category>
      <category>bioinformatics</category>
      <category>biopython</category>
      <category>DNA</category>
      <category>dna시퀀싱</category>
      <category>Python</category>
      <category>바이오</category>
      <category>생명정보학</category>
      <category>생물학</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/138</guid>
      <comments>https://minyoungxi.tistory.com/138#entry138comment</comments>
      <pubDate>Mon, 25 Nov 2024 17:10:39 +0900</pubDate>
    </item>
    <item>
      <title>[Genomics Data Science] - 중합효소 연쇄 반응(PCR), 차세대 시퀀싱 및 시퀀싱의 응용</title>
      <link>https://minyoungxi.tistory.com/137</link>
      <description>&lt;h1&gt;중합효소 연쇄 반응 - Polymerase Chain Reaction(PCR)&lt;/h1&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;간단하지만 강력한 기법으로 DNA를 복제하고 실제로 원하는 만큼 DNA 사본을 만들 수 있는 놀랍고도 강력한 방법인 &lt;b&gt;중합효소 연쇄 반응(Polymerase Chain Reaction, PCR)에&lt;/b&gt; 대해서 알아봅시다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PCR(중합효소 연쇄 반응)&lt;/b&gt;은 DNA를 복제하여 원하는 만큼의 DNA 사본을 만들 수 있는 강력한 실험 기법입니다. 이 기술은 유전체학, RNA 염기서열 분석 등 다양한 분야에서 필수적으로 사용되며 특히 단일 세포나 분자가 아닌 충분한 양의 DNA가 필요한 실험에서 매우 중요한 역할을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA 염기서열 분석을 할 때는 RNA를 DNA로 바꾸고 그 사본을 많이 만들어야 합니다. 누군가 게놈을 시퀀싱할 때 우리는 단순히 단일 세포나 단일 분자의 염기서열을 분석하지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;염기서열 분석에 사용하는 모든 기술을 활용하기 위해서는 시작하기 전에 DNA 분자의 동일한 사본을 많이 만들어야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA는 항상 이중 가닥을 이루고 있죠. 아래의 이미지와 같이 두 가닥의 DNA가 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;120&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/emwJXT/btsKvYwKiJd/KcRizfcD6I1zUggVyKHsF1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/emwJXT/btsKvYwKiJd/KcRizfcD6I1zUggVyKHsF1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/emwJXT/btsKvYwKiJd/KcRizfcD6I1zUggVyKHsF1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FemwJXT%2FbtsKvYwKiJd%2FKcRizfcD6I1zUggVyKHsF1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;646&quot; height=&quot;120&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;120&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;상단에는 A, C, G, T 가 있고 하단에는 상보적인 가닥이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 이전에 언급한 것처럼 DNA에는 5에서 3으로 방향을 이루고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 DNA 염기서열의 시작은 5가 되고 끝은 3이 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA가 스스로 달라붙는다는 사실은 PCR에 사용할 매우 중요한 특성입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PCR에서는 15-20개 염기 길이의 짧은 DNA 조각인 &lt;b&gt;&amp;lsquo;프라이머(Primer)&amp;rsquo;&lt;/b&gt;를 사용합니다. 조금 더 짧을 수도 있고 조금 더 길 수도 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것은 복제하고자 하는 DNA와 상보적인 서열을 가집니다. 순방향과 역방향 두 개의 프리미어가 사용되며, 각각 DNA의 다른 말단에 결합합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1159&quot; data-origin-height=&quot;362&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dKPAd3/btsKwou5e0p/ZoR1nXZyJkFHJJukfKpjR1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dKPAd3/btsKwou5e0p/ZoR1nXZyJkFHJJukfKpjR1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dKPAd3/btsKwou5e0p/ZoR1nXZyJkFHJJukfKpjR1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdKPAd3%2FbtsKwou5e0p%2FZoR1nXZyJkFHJJukfKpjR1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1159&quot; height=&quot;362&quot; data-origin-width=&quot;1159&quot; data-origin-height=&quot;362&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 예시는 프라이머 두 개를 사용한 예시인데요, 하나는 &lt;span style=&quot;color: #009a87;&quot;&gt;초록색&lt;/span&gt;이고 다른 하나는 &lt;span style=&quot;color: #006dd7;&quot;&gt;파란색&lt;/span&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;초록색 프라이머는 상단 DNA 가닥의 중간 부분에 결합하는 &lt;b&gt;순방향(Forward) 프라이머&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 프라이머는 하단 DNA 가닥과 상보적으로 결합하게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하단에 있는 파란색 프라이머는 &lt;b&gt;역방향(Reverse)프라이머&lt;/b&gt; 입니다. DNA의 반대쪽 말단에 결합하게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이처럼 프라이머는 DNA의 특정 부위에 상보적으로 결합하여 DNA 복제의 시작과 끝 지점 역할을 하며, 두 프라이머를 통해 원하는 DNA 영역을 선택적으로 증폭할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1146&quot; data-origin-height=&quot;147&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dnebfv/btsKvC8CM1Q/gN4v2g0LkdCYJFFr4ySOu0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dnebfv/btsKvC8CM1Q/gN4v2g0LkdCYJFFr4ySOu0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dnebfv/btsKvC8CM1Q/gN4v2g0LkdCYJFFr4ySOu0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fdnebfv%2FbtsKvC8CM1Q%2FgN4v2g0LkdCYJFFr4ySOu0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1146&quot; height=&quot;147&quot; data-origin-width=&quot;1146&quot; data-origin-height=&quot;147&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;rarr; 따라서, 프라이머는 연구자가 자신의 실험 목적에 맞게 특정 DNA 부위를 선택하여 그에 맞는 서열을 설계하고 주문 제작하는 것입니다. 이는 PCR의 큰 장점 중 하나로, 원하는 DNA 부위를 선택적으로 증폭할 수 있게 해줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;785&quot; data-origin-height=&quot;124&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ytsZD/btsKvp9slu7/hYVbQkZzK8ZsYHF3qEntN1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ytsZD/btsKvp9slu7/hYVbQkZzK8ZsYHF3qEntN1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ytsZD/btsKvp9slu7/hYVbQkZzK8ZsYHF3qEntN1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FytsZD%2FbtsKvp9slu7%2FhYVbQkZzK8ZsYHF3qEntN1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;785&quot; height=&quot;124&quot; data-origin-width=&quot;785&quot; data-origin-height=&quot;124&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA를 가열하면 DNA가 녹거나&lt;b&gt; 두 가닥이 서로 분리되어 떨어져 나가게 됩니다&lt;/b&gt;. 따라서 혼합물이 뜨거우면 프라이머가 DNA에 달라붙지 않고 DNA의 두 가닥도 서로 달라붙지 않습니다(94&amp;deg;C에서 진행되는 변성 단계). 그런 다음 식히거나 어닐링하고 온도를 낮추어 프리미어가 단일 가닥 DNA에 결합하도록 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;프라이머는 크기가 작아 DNA에 쉽게 결합할 수 있는 특징이 있습니다. 마지막으로 72&amp;deg;C에서 진행되는 신장 단계에서는 DNA 중합효소가 프라이머가 결합된 부위부터 dNTPs(A, C, G, T)를 이용하여 새로운 DNA 가닥을 합성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;276&quot; data-origin-height=&quot;228&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/oWpY5/btsKw2roJSX/ml41kQ9qSCubiqom3k1Tok/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/oWpY5/btsKw2roJSX/ml41kQ9qSCubiqom3k1Tok/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/oWpY5/btsKw2roJSX/ml41kQ9qSCubiqom3k1Tok/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FoWpY5%2FbtsKw2roJSX%2Fml41kQ9qSCubiqom3k1Tok%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;391&quot; height=&quot;323&quot; data-origin-width=&quot;276&quot; data-origin-height=&quot;228&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA 중합효소의 작동 원리를 다음과 같이 정리할 수 있습니다. DNA 중합효소는 DNA 가닥에서 특별한 구조를 인식하여 작동합니다. 이 구조는 일부는 단일 가닥이고 일부는 이중 가닥인 부분입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;구체적으로, 프라이머가 단일 가닥 DNA에 결합하여 만든 이중 가닥 부분을 인식하고 이 프라이머가 결합된 지점에서부터 나머지 단일 가닥 부분을 따라 새로운 DNA를 합성하기 시작합니다. 즉, 프라이머가 제공하는 이중 가닥 구조를 시작점으로 삼아 빈 부분의 염기서열을 상보적으로 채워나가는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의 작업들을 수행한 후의 결과는 아래와 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;한 번의 복제 과정을 거치면 초록색 프라이머가 있는 상단 부분에서는 중합효소가 프라이머를 시작점으로 삼아 전체 서열을 완성하고 동시에 다른 중합효소는 파란색 프라이머가 있는 하단 부분에서 시작하여 반대쪽 가닥의 서열을 완성하는 모습입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 과정에서 DNA 중합효소는 용액 속에 있는 A,C,G,T 뉴클레오티드를 사용하여 새로운 DNA 가닥을 만듭니다. 이렇게 만들어진 두 개의 이중 가닥 DNA는 원본과 동일한 서열을 가지게 되며 이 과정이 계속 반복되면서 DNA가 기하급수적으로 증폭되는 것을 알 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 &lt;b&gt;연쇄반응&lt;/b&gt; 이라고 하며 라운드를 거칠 때마다 이전에 가지고 있던 DNA의 양이 2배로 늘어납니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;881&quot; data-origin-height=&quot;159&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cStZiC/btsKv8TwOs0/ruEc7YKdYtdxsnbOmdvviK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cStZiC/btsKv8TwOs0/ruEc7YKdYtdxsnbOmdvviK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cStZiC/btsKv8TwOs0/ruEc7YKdYtdxsnbOmdvviK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcStZiC%2FbtsKv8TwOs0%2FruEc7YKdYtdxsnbOmdvviK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;881&quot; height=&quot;159&quot; data-origin-width=&quot;881&quot; data-origin-height=&quot;159&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;864&quot; data-origin-height=&quot;222&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bF1OXj/btsKwh3WNL2/1fBo56KpUlL1k5QhHG5Ksk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bF1OXj/btsKwh3WNL2/1fBo56KpUlL1k5QhHG5Ksk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bF1OXj/btsKwh3WNL2/1fBo56KpUlL1k5QhHG5Ksk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbF1OXj%2FbtsKwh3WNL2%2F1fBo56KpUlL1k5QhHG5Ksk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;864&quot; height=&quot;222&quot; data-origin-width=&quot;864&quot; data-origin-height=&quot;222&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전체적인 흐름을 그림으로 살펴보면 아래와 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;높은 온도에서 DNA는 두 가닥으로 분리가 됩니다. 몇 분이면 저렇게 잘 분리가 된다고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;온도를 54도까지 식히면 이 온도에서 프라이머가 DNA에 달라붙게 됩니다. 그러면 중합효소가 이 이중 가닥의 조각을 찾아서 채우기 시작합니다. 두 개의 종합효소가 기존 가닥을 채우고 이중 가닥 DNA를 생성하기 시작하는 것을 볼 수 있습니다. 이렇게 하면 완벽한 복제본을 만들게 됩니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;600&quot; data-origin-height=&quot;301&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b3wtZx/btsKvCt1Lir/EBJ7WlhNbwMBIqO5d3bkl0/img.gif&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b3wtZx/btsKvCt1Lir/EBJ7WlhNbwMBIqO5d3bkl0/img.gif&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b3wtZx/btsKvCt1Lir/EBJ7WlhNbwMBIqO5d3bkl0/img.gif&quot; srcset=&quot;https://blog.kakaocdn.net/dn/b3wtZx/btsKvCt1Lir/EBJ7WlhNbwMBIqO5d3bkl0/img.gif&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;600&quot; height=&quot;301&quot; data-origin-width=&quot;600&quot; data-origin-height=&quot;301&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정리하자면 PCR을 위해 필요한 재료는 다음과 같습니다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;DNA&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;primers&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;DNA polymerase&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;A&amp;rsquo;s , C&amp;rsquo;s, G&amp;rsquo;s, T&amp;rsquo;s&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;복제하려는 DNA가 필요하고 살아있는 유기체의 모든 DNA가 될 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;차세대 시퀀싱 - Next Generation Sequencing&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;차세대 시퀀싱(NGS)&lt;/b&gt;은 2007년부터 현재까지 사용되고 있는 최신 DNA 염기서열 분석 기술입니다. DNA 시퀀싱 기술은 여러 세대를 거쳐 발전했는데, 1970-90년대에는 프레드 생어(Sanger)가 발명한 생어 시퀀싱이 주로 사용되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;초기에는 수작업으로 진행되어 느리고 힘들었지만, 1980년대에 자동화된 DNA 염기서열 분석기가 개발되면서 효율성이 크게 향상되었습니다. 1990년대에는 DNA 마이크로어레이 기술이 등장했으나 이는 정확한 시퀀싱이 아닌 DNA나 RNA의 결합을 측정하는 기술이었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;NGS의 작동 원리는 DNA 중합효소의 특성을 활용합니다. 먼저 분석하고자 하는 DNA 주형을 수백에서 천 개 정도의 염기 길이를 가진 작은 조각으로 자르고, 이를 화학적으로 슬라이드에 부착합니다. 슬라이드에는 수백만에서 수천만 개의 DNA 조각이 부착될 수 있습니다. 이후 PCR을 통해 각 조각의 동일한 사본을 여러 개 만들어 클러스터를 형성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1240&quot; data-origin-height=&quot;525&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/9AXUz/btsKuRyw73Z/AjK1TJ6822TbJVzG7sajd1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/9AXUz/btsKuRyw73Z/AjK1TJ6822TbJVzG7sajd1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/9AXUz/btsKuRyw73Z/AjK1TJ6822TbJVzG7sajd1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F9AXUz%2FbtsKuRyw73Z%2FAjK1TJ6822TbJVzG7sajd1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1240&quot; height=&quot;525&quot; data-origin-width=&quot;1240&quot; data-origin-height=&quot;525&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;시퀀싱 과정에서는 형광 표지된 &lt;b&gt;뉴클레오티드(A, C, G, T)&lt;/b&gt;를 사용합니다. 이 뉴클레오티드들은 두 가지 특별한 변형을 가지고 있습니다.&lt;b&gt; 첫째, 각각 다른 색의 형광을 발합니다&lt;/b&gt;. &lt;b&gt;둘째, '터미네이터' 변형이 있어 한 번에 하나의 뉴클레오티드만 추가될 수 있습&lt;/b&gt;니다. DNA 중합효소가 이러한 뉴클레오티드를 하나씩 추가하면, 레이저로 빛을 비춰 형광 신호를 촬영합니다. 각 사이클마다 새로운 염기가 추가되고, 이를 촬영하여 연속적인 이미지를 얻게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 기술의 한계점은&lt;b&gt; 시퀀싱 사이클이 진행될수록 오류가 증가&lt;/b&gt;한다는 것입니다. 이는 DNA 중합효소가 완벽하지 않아 일부 가닥이 앞서가거나 뒤처지는 현상 때문입니다. 초기에는 이러한 오류가 적지만, 시간이 지날수록 동기화되지 않은 가닥들이 늘어나 오류가 커집니다. 이러한 이유로 NGS로는 수천 개 이상의 염기를 연속적으로 읽을 수 없습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최종적으로 얻어지는 결과는 As, Cs, Gs, Ts의 연속된 시퀀스와 함께 각 위치별 품질 값이 포함됩니다. 이 품질 값은 기본 호출 소프트웨어가 각 위치에서 발생할 수 있는 오류의 확률을 추정한 것으로, 형광 신호의 순도를 기반으로 계산됩니다. 시퀀스가 진행될수록 형광 신호의 순도가 떨어지므로, 후반부로 갈수록 품질 값이 낮아지는 경향이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;시퀀싱의 응용 - Next Generation Sequencing Applications&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가장 기본적인 아이디어는 DNA를 만들어야 한다는 것입니다. 염기서열을 분석하기 위해서는 DNA가 필요하니까요. (Convert Molecule to DNA)&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그런 다음 2세대 시퀀싱 기술을 적용하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;엑솜 시퀀싱(Exome Sequencing)&lt;/b&gt;은 오늘날 가장 인기가 많은 방법입니다. 엑솜이라는 것은 Genome에 있는 모든 엑손(단백질로 번역되는 DNA 부분)만을 모아 놓은 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 부분에 대해서 다시 살펴보면, 우리의 DNA는 RNA로 전사됩니다. 이 과정에서 RNA는 엑손과 인트론으로 잘게 쪼개집니다. 인트론은 버려지고, 남아있는 엑손은 서로 연결되며 엑손은 단백질로 번역됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 세포 집합체 안에서 어떤 단백질이 활성화되고 있는지 알고 싶다면 엑손이 무엇인지 알아야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전학에서 우리는 유전자 돌연변이를 찾을 때 단백질에 영향을 미치는 돌연변이에 대부분 관심을 갖습니다. 이러한 돌연변이는 엑손에서 발생해야 합니다. 따라서 세포에서 엑손만 캡쳐하고 그 엑손의 염기서열을 분석할 수 있습니다. 엑손은 전체 Genome에서 약 1.5%(30-60만 염기쌍)만 차지하지만, 대부분의 질병 관련 돌연변이가 이 영역에서 발생합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;마그네틱 비드를 사용하여 엑손 DNA를 선택적으로 포획하는 방식으로 진행됩니다. 비드에 부착된 상보적 DNA와 엑손 DNA를 혼성화시켜 분리한 후 시퀀싱을 수행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또 다른 기술은 &lt;b&gt;RNA-Sequencing&lt;/b&gt; 입니다. 여기에는 세포 또는 세포 집합체에서 활성화되는 모든 유전자를 포획하는 것이 포함됩니다. 방금 언급한 것처럼 단백질을 생산하려면 DNA가 먼저 RNA로 전사된 다음 단백질로 번역됩니다. 따라서 RNA를 포착한다면 특정 세포 세트 또는 세포 유형에서 어떤 유전자가 발현되거나 활성화되는지 알 수 있습니다. RNA 분자에서 매우 중요한 특징은 전사 후에 세포가 A로 구성된 긴 줄이 된다는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1189&quot; data-origin-height=&quot;197&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cmh1tl/btsKvDsWJPe/O7kCXsyYrqwjIKcq0xDmWk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cmh1tl/btsKvDsWJPe/O7kCXsyYrqwjIKcq0xDmWk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cmh1tl/btsKvDsWJPe/O7kCXsyYrqwjIKcq0xDmWk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcmh1tl%2FbtsKvDsWJPe%2FO7kCXsyYrqwjIKcq0xDmWk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1189&quot; height=&quot;197&quot; data-origin-width=&quot;1189&quot; data-origin-height=&quot;197&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA의 폴리A 꼬리를 이용하여 성숙한 mRNA만을 선택적으로 포획하여 사용할 수 있습니다. A가 길지 않은 것은 모두 무시할 수 있죠. 저런 꼬리를 폴리 A 꼬리라고 부릅니다.(Poly A tail)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1160&quot; data-origin-height=&quot;167&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bkg1FY/btsKwCGrrIi/OXBJFZFmgxNqNGC3us7qOK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bkg1FY/btsKwCGrrIi/OXBJFZFmgxNqNGC3us7qOK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bkg1FY/btsKwCGrrIi/OXBJFZFmgxNqNGC3us7qOK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbkg1FY%2FbtsKwCGrrIi%2FOXBJFZFmgxNqNGC3us7qOK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1160&quot; height=&quot;167&quot; data-origin-width=&quot;1160&quot; data-origin-height=&quot;167&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;역전사효소를 사용하여 RNA를 DNA로 변환한 후 시퀀싱을 수행합니다. 이 방법을 통해 필요한 부분을 캡쳐한 RNA와 일치하는 DNA를 얻을 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일단 DNA를 얻었으면 염기서열 분석만 하면 되겠죠? 그리고 그 시점부터 어떤 세포나 유전자가 그 세포를 활성화시킬지 알아내는 것은 계산상의 문제입니다. 매우 복잡한 계산이지만 중요한 계산이죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;차세대 시퀀싱 기술이 도입된 이후 큰 인기를 끌고있는 세 번째 기술은 &lt;b&gt;ChIP-Seq&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1316&quot; data-origin-height=&quot;283&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/0zoUS/btsKwyqETKW/YueDx0tsXbooiDlRqfQkk0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/0zoUS/btsKwyqETKW/YueDx0tsXbooiDlRqfQkk0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/0zoUS/btsKwyqETKW/YueDx0tsXbooiDlRqfQkk0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F0zoUS%2FbtsKwyqETKW%2FYueDx0tsXbooiDlRqfQkk0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1316&quot; height=&quot;283&quot; data-origin-width=&quot;1316&quot; data-origin-height=&quot;283&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;ChIP-seq(Chromatin Immunoprecipitation Sequencing)&lt;/b&gt;은 특정 단백질이 DNA의 어느 부분에 결합하는지를 이해하기 위한 중요한 실험 기법입니다. 이는 DNA의 유전자 발현 조절 메커니즘을 이해하는 데 핵심적인 역할을 합니다. 세포마다 다른 유전자 발현 패턴을 가질 수 있는 것은 전사 인자라는 단백질들이 DNA의 특정 부위에 결합하여 근처에 있는 유전자의 발현을 조절하기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현미경으로는 염색체에서 단백질이 결합된 정확한 위치를 직접 관찰할 수 없기 때문에, ChIP-seq은 이를 간접적으로 확인할 수 있는 방법을 제공합니다. 이 기술은 가교결합이라는 과정을 통해 단백질을 DNA에 직접 고정시키는 것으로 시작합니다. 관심 있는 세포를 채취한 후, 단백질과 세포의 DNA를 교차 연결하여 단백질이 결합된 위치를 고정합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 다음 단계에서는 DNA를 수많은 작은 단편으로 파편화합니다. 이때 대부분의 단편은 단백질이 결합되어 있지 않지만, 일부 단편에는 관심 있는 단백질이 결합되어 있습니다. 이러한 단백질-DNA 복합체를 특이적으로 분리하기 위해 항체를 사용합니다. ChIP-seq에서는 특정 단백질을 인식하는 항체를 설계하여 이를 혼합물에서 분리해냅니다. 단백질이 DNA에 고정되어 있기 때문에, 단백질을 분리할 때 그것이 결합되어 있던 DNA 조각도 함께 분리됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;마지막으로, 분리된 단백질을 제거하고 남은 DNA 단편들의 염기서열을 분석합니다. 이렇게 얻어진 DNA 서열은 원래 단백질이 결합해 있던 위치의 DNA 서열을 나타냅니다. 결과적으로 이 실험은 단백질-DNA 결합 위치 확인 문제를 염기서열 분석 문제로 전환시킨 것이며, 얻어진 짧은 DNA 단편들의 서열을 통해 단백질 결합 부위를 파악할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1076&quot; data-origin-height=&quot;177&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/TGIK8/btsKwBU6f6E/LG8OoBM5V6BAUgkGJ1ycR0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/TGIK8/btsKwBU6f6E/LG8OoBM5V6BAUgkGJ1ycR0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/TGIK8/btsKwBU6f6E/LG8OoBM5V6BAUgkGJ1ycR0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FTGIK8%2FbtsKwBU6f6E%2FLG8OoBM5V6BAUgkGJ1ycR0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1076&quot; height=&quot;177&quot; data-origin-width=&quot;1076&quot; data-origin-height=&quot;177&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;바이설페이트 시퀀싱(Bisulfite Sequencing)&lt;/b&gt; 또는 &lt;b&gt;메틸 시퀀싱&lt;/b&gt;은 DNA의 메틸화 패턴을 분석하는 중요한 기술입니다. DNA 메틸화는 세포 내에서 단백질 발현에 영향을 미치는 중요한 &lt;b&gt;후성유전학적 변형&lt;/b&gt;입니다. 특히 메틸화 표지(메틸기)는 세포 분열 과정에서 다음 세대로 전달될 수 있어 유전자 발현 조절에 장기적인 영향을 미칩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;메틸화 위치를 확인하는 실험 과정은 다음과 같습니다: 먼저, DNA 샘플을 동일한 양의 두 부분으로 나눕니다. 이 중 한 샘플에 바이설페이트 전환이라는 특별한 화학적 처리를 합니다. 이때 중요한 점은 메틸기가 항상 시토신(C)에만 부착된다는 것입니다. 바이설페이트 처리 과정에서는 메틸화되지 않은 모든 시토신(C)이 우라실(U)로 변환됩니다. 반면, 메틸화된 시토신은 변환되지 않고 그대로 유지됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 처리된 두 개의 샘플(처리된 것과 처리되지 않은 것)의 DNA 시퀀싱을 수행한 후, 결과를 비교 분석합니다. 하지만 이 과정에서 일반적인 시퀀스 정렬 프로그램으로는 분석이 어렵습니다. 왜냐하면 바이설페이트로 처리된 DNA는 참조 게놈과 많은 차이를 보이기 때문입니다. 따라서 이를 위해 특별히 설계된 정렬 프로그램을 사용해야 합니다. 이 프로그램은 변환된 &lt;b&gt;우라실(U)을 원래 게놈의 시토신(C)과 비교할 수 있도록 설계&lt;/b&gt;되어 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한 분석을 통해 특정 세포나 조직에서 DNA의 어느 부분이 메틸화되어 있는지 파악할 수 있으며, 이는 유전자 발현 조절과 세포 분화 과정을 이해하는 데 매우 중요한 정보를 제공합니다. 메틸화 패턴은 정상적인 발달 과정뿐만 아니라 질병 상태에서도 중요한 역할을 합니다. 이를 연구하는 것은 생물학적, 의학적으로 큰 의미를 가집니다.&lt;/p&gt;</description>
      <category>Bioinformatics</category>
      <category>AI</category>
      <category>DNA</category>
      <category>PCR</category>
      <category>RNA</category>
      <category>단백질</category>
      <category>생명공학</category>
      <category>시퀀싱</category>
      <category>중합효소</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/137</guid>
      <comments>https://minyoungxi.tistory.com/137#entry137comment</comments>
      <pubDate>Mon, 4 Nov 2024 19:03:58 +0900</pubDate>
    </item>
    <item>
      <title>[Pytorch 다시보기] - Name some different components of PyTorch!! PyTorch의 다양한 구성요소를 알아봅시다!</title>
      <link>https://minyoungxi.tistory.com/136</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Tensors&lt;/b&gt; : Tensors are very homogeneous to the Numpy array and it is also multi-dimensional. The Tensors are accessible in PyTorch as a torch. Some examples are torch.CharTen , torch.IntTensor , torch.FloatTensor , etc.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;텐서 (Tensors)&lt;/b&gt;: 텐서는 Numpy array와 매우 유사하며 다차원입니다. 텐서는 PyTorch에서 &lt;span style=&quot;background-color: #f6e199;&quot;&gt;torch.&lt;/span&gt;을 통해 접근할 수 있습니다. 예를 들어&lt;i&gt; torch.CharTensor, torch.IntTensor, torch.FloatTensor&lt;/i&gt; 등이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1730199410779&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import torch

char_tensor = torch.CharTensor([1, 2, 3])
int_tensor = torch.IntTensor([1, 2, 3])
float_tensor = torch.FloatTensor([1.0, 2.0, 3.0])

print(&quot;Char Tensor:&quot;, char_tensor)
print(&quot;Int Tensor:&quot;, int_tensor)
print(&quot;Float Tensor:&quot;, float_tensor)

multi_dim_tensor = torch.FloatTensor([[1, 2], [3, 4]])
print(&quot;Multi-dimensional Tensor:\n&quot;, multi_dim_tensor)

output:
Char Tensor: tensor([1, 2, 3], dtype=torch.int8)
Int Tensor: tensor([1, 2, 3], dtype=torch.int32)
Float Tensor: tensor([1., 2., 3.])
Multi-dimensional Tensor:
 tensor([[1., 2.],
        [3., 4.]])&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Variable&lt;/b&gt; : A variable works as a wrapper around the Tensor to clutch the gradient. You can find variables under the torch.autograd in the form of a torch.autograd.Variable.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;변수 (Variable)&lt;/b&gt;: 변수는 텐서를 감싸서 그래디언트를 유지하는 역할을 합니다. 변수는 torch.autograd 아래에서 torch.autograd.Variable 형태로 찾을 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;rarr; 최신 버전의 PyTorch에서는 torch.autograd.Variable 이 더 이상 필요하지 않으며, 텐서가 자동으로 그래디언트를 추적합니다. 따라서 예시에서는 Variable을 사용하지 않았습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Parameters&lt;/b&gt;: The work of a Parameter is to wrap the variable and we use it when the Tensors of a module do not possess a gradient. We can find parameters under the torch.nn in the form of torch.nn.Parameter.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;파라미터 (Parameters)&lt;/b&gt;: 파라미터의 역할은 변수를 감싸는 것이며, 모듈의 텐서가 그래디언트를 가지지 않을 때 이를 사용합니다. 파라미터는 torch.nn 아래에서 torch.nn.Parameter 형태로 찾을 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1730199468897&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import torch.nn as nn

param = nn.Parameter(torch.randn(2, 2), requires_grad=True)
print(&quot;Parameter:\n&quot;, param)

class SimpleModule(nn.Module):
    def __init__(self):
        super(SimpleModule, self).__init__()
        self.weight = nn.Parameter(torch.randn(2, 2))
    
    def forward(self, x):
        return torch.matmul(x, self.weight)

module = SimpleModule()
print(&quot;Module Parameter:\n&quot;, module.weight)

output:
Parameter:
 Parameter containing:
tensor([[-0.5672, -0.5706],
        [ 1.5980,  0.1115]], requires_grad=True)
Module Parameter:
 Parameter containing:
tensor([[-0.0392,  1.4112],
        [-0.6556,  0.8576]], requires_grad=True)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Functions&lt;/b&gt;: Functions do not possess any memory and their work is to transform the operations. Some examples of function are torch.sum , torch.log , etc. Functions are implemented using torch.nn.functional.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;함수 (Functions)&lt;/b&gt;: 함수는 메모리를 가지지 않으며 연산을 변환하는 역할을 합니다. 함수의 예로는&lt;i&gt; torch.sum, torch.log&lt;/i&gt; 등이 있습니다. 함수는 torch.nn.functional을 사용하여 구현됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1730199485602&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import torch
import torch.nn.functional as F

# 텐서 생성
x = torch.tensor([1.0, 2.0, 3.0])

# 합계 함수 사용
sum_x = torch.sum(x)
print(&quot;Sum of x:&quot;, sum_x)

# 로그 함수 사용
log_x = torch.log(x)
print(&quot;Log of x:&quot;, log_x)

# 활성화 함수 (ReLU) 사용
relu_x = F.relu(x - 2.5)
print(&quot;ReLU(x - 2.5):&quot;, relu_x)

Sum of x: tensor(6.)
Log of x: tensor([0.0000, 0.6931, 1.0986])
ReLU(x - 2.5): tensor([0.0000, 0.0000, 0.5000])&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Modules&lt;/b&gt;: Modules are the base class of all neural networks and they also can contain different functions, modules, and parameters. It is efficient in storing learnable weights and states. Modules can be applied as torch.nn.Linear , torch.nn.Conv2d , etc.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;모듈 (Modules)&lt;/b&gt;: 모듈은 모든 신경망의 기본 클래스이며, 다양한 함수, 모듈, 파라미터를 포함할 수 있습니다. 학습 가능한 가중치와 상태를 효율적으로 저장하는 데 유용합니다. 모듈은 &lt;i&gt;torch.nn.Linear, torch.nn.Conv2d&lt;/i&gt; 등으로 적용할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1730199517986&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import torch
import torch.nn as nn

# 입력 채널 1, 출력 채널 1, 커널 사이즈 3인 합성곱 계층 정의
conv = nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3)

# 임의의 입력 텐서 (배치 크기 1, 채널 1, 높이 5, 너비 5)
input_tensor = torch.randn(1, 1, 5, 5)
print(&quot;Input Tensor Shape:&quot;, input_tensor.shape)

# 합성곱 계층을 통과한 출력
output = conv(input_tensor)
print(&quot;Output Tensor Shape:&quot;, output.shape)

# 학습 가능한 파라미터
print(&quot;Conv Weights:&quot;, conv.weight)
print(&quot;Conv Bias:&quot;, conv.bias)

Input Tensor Shape: torch.Size([1, 1, 5, 5])
Output Tensor Shape: torch.Size([1, 1, 3, 3])
Conv Weights: Parameter containing:
tensor([[[[ 0.3037, -0.2643,  0.0839],
          [-0.1434, -0.0365, -0.2495],
          [ 0.3036, -0.2447,  0.1782]]]], requires_grad=True)
Conv Bias: Parameter containing:
tensor([0.1171], requires_grad=True)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Data science/Pytorch Basic</category>
      <category>AI</category>
      <category>pytorch</category>
      <category>딥러닝</category>
      <category>머신러닝</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/136</guid>
      <comments>https://minyoungxi.tistory.com/136#entry136comment</comments>
      <pubDate>Tue, 29 Oct 2024 19:59:10 +0900</pubDate>
    </item>
    <item>
      <title>[Genomics Data Science] - Genomics를 Data Science로 다뤄봅시다</title>
      <link>https://minyoungxi.tistory.com/135</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Why Genomics?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 포스팅은 Coursera에 있는 &lt;span style=&quot;background-color: #ffffff; color: #5b6780; text-align: start;&quot;&gt;Johns Hopkins University의 &lt;/span&gt;게놈 데이터 과학 특화 과정 강의를 정리한 내용입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;INTRODUCTION:&lt;/b&gt; 이 강의는 유전체학의 중요성과 그것이 우리에게 가르쳐 줄 수 있는 것들에 대해 설명합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전체학의 기본 개념&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;유전체학은 우리 몸 안의 유전체를 연구하는 분야로, 모든 인간은 99.9% 동일한 유전체를 가지고 있지만, 그 안의 작은 변화로 인해 다양한 차이가 발생합니다.&lt;/li&gt;
&lt;li&gt;유전체는 우리의 발달과 생물학적 특성을 결정하며, 예를 들어, 신경세포와 피부세포는 동일한 유전체를 가지고 있지만 서로 다른 기능을 수행합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;암과 유전적 변이&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;암은 유전적 질병으로, 세포가 통제 없이 분열하는 현상으로 정의됩니다. 이는 유전체 내의 변이가 원인입니다.&lt;/li&gt;
&lt;li&gt;변이는 DNA 복제 과정에서 발생할 수 있으며, 이러한 변이가 세포 분열을 조절하는 유전자에 영향을 미쳐 암을 유발할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정보 흐름과 유전체 분석&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;생물학의 중심 교리는 DNA에서 RNA, 그리고 단백질로 정보가 흐른다는 것입니다. 그러나 최근 연구에 따르면, 단백질이 다시 DNA에 영향을 미치는 피드백 루프도 존재합니다.&lt;/li&gt;
&lt;li&gt;유전체 분석은 주로 시퀀싱 기술을 통해 이루어지며, 최근 20년간 기술 발전으로 인해 시퀀싱 비용이 크게 감소하고 있습니다. 현재는 개인 연구실에서도 많은 유전체를 빠르게 분석할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;암이 발생하는 이유&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전체학에서 변이가 암을 유발하는 방식은 다음과 같습니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;변이의 정의&lt;/b&gt;: 변이는 DNA의 염기 서열에서 발생하는 변화로, 이는 DNA 복제 과정에서의 오류나 외부 요인(예: 방사선, 화학물질 등)으로 인해 발생할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;세포 분열과 변이&lt;/b&gt;: 세포가 분열할 때, DNA는 복제되어야 합니다. 이 과정에서 오류가 발생할 수 있으며, 이러한 오류가 변이를 초래합니다. 일반적으로 세포 분열 시 1~3개의 오류가 발생할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;유전자 기능의 변화&lt;/b&gt;: 변이가 발생하면, 특정 유전자가 제대로 기능하지 않게 될 수 있습니다. 예를 들어, 세포 분열을 조절하는 유전자가 변이로 인해 비활성화되면, 세포는 통제 없이 계속 분열하게 됩니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;암의 정의&lt;/b&gt;: 암은 이러한 비정상적인 세포 분열로 인해 발생하는 질병입니다. 변이가 특정 세포에서 발생하면, 그 세포는 암세포로 변모하게 됩니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;다양한 암의 종류&lt;/b&gt;: 암은 발생한 세포의 종류에 따라 다르게 분류됩니다. 예를 들어, 피부세포에서 발생한 변이는 피부암(흑색종)으로, 폐세포에서 발생한 변이는 폐암으로 이어집니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;DNA, RNA, Protein 간의 정보 흐름&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA, RNA, 단백질 간의 정보 흐름은 생물학의 중심 교리인 &quot;중심 교리&quot;에 따라 다음과 같이 이루어집니다.&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;DNA에서 RNA로의 전사 (Transcription)&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;DNA는 유전 정보를 저장하는 분자로, 특정 유전자가 필요할 때 해당 유전자의 염기 서열이 RNA로 복사됩니다.&lt;/li&gt;
&lt;li&gt;이 과정에서 DNA의 염기 서열이 RNA로 전사되며, 이때 티민(T)은 유라실(U)로 대체됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;RNA에서 단백질로의 번역 (Translation)&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;전사된 RNA는 메신저 RNA(mRNA)로 알려지며, 세포의 리보솜으로 이동합니다.&lt;/li&gt;
&lt;li&gt;리보솜에서 mRNA의 염기 서열이 세 개씩 읽히며, 각 세 개의 염기는 특정 아미노산을 지정합니다. 이 과정을 번역이라고 합니다.&lt;/li&gt;
&lt;li&gt;아미노산이 연결되어 단백질이 형성됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;단백질의 기능&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;단백질은 세포 내에서 다양한 기능을 수행하며, 효소, 구조 단백질, 호르몬 등으로 작용합니다.&lt;/li&gt;
&lt;li&gt;단백질은 세포의 기능과 생리적 과정을 조절하는 데 중요한 역할을 합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;정보 흐름의 피드백&lt;/b&gt;:
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;최근 연구에 따르면, 단백질이 다시 DNA에 영향을 미치는 피드백 루프도 존재합니다. 특정 단백질이 DNA에 결합하여 유전자의 발현을 조절할 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;유전체 구조&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;염기 서열&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정의&lt;/b&gt;: DNA는 &lt;i&gt;아데닌(A), 사이토신(C), 구아닌(G), 티민(T)&lt;/i&gt;이라는 네 가지 염기로 구성되어 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;중요성&lt;/b&gt;: 이 염기 서열이 유전 정보를 저장하고 전달하는 기본 단위입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;염색체&lt;/li&gt;
&lt;/ol&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;정의&lt;/b&gt;: 유전체는 23쌍의 염색체로 구성되어 있으며, 각 염색체는 유전자의 집합체입니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;중요성&lt;/b&gt;: 염색체의 구조는 유전자의 위치와 기능을 이해하는 데 필수적입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;센트로미어와 텔로미어&lt;/li&gt;
&lt;/ol&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;센트로미어&lt;/b&gt;: 염색체의 중앙 부분으로, 세포 분열 시 염색체가 올바르게 분리되도록 돕습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;텔로미어&lt;/b&gt;: 염색체의 끝부분으로, DNA의 손상을 방지하고 세포의 노화를 조절합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;유전체학이란?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt; The branch of molecular biology concerned with the structure, function, evolution and mapping of genomes. &lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;과거의 생물학과 현대의 유전체학의 가장 큰 차이는 뭘까요 ?&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;과거에는 저 처리량 실험이라고 부르는 표적 실험만 할 수 있었습니다. 하나의 유기체 대신 한 번에 하나의 유전자를 연구하는 것이었죠. 오늘날 우리는 새로운 유전체학 기술을 사용하여 수천 개의 유전자 활동을 한꺼번에 측정하는 실험을 할 수 있습니다. 이것이 유전체학과 초기의 생물학의 가장 큰 차이점입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;과거에는 실험이 매우 어려웠으나 기술의 발달로 인해 더 쉽게 할 수 있는 방법들이 많아졌습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Genome Data Science 란?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;949&quot; data-origin-height=&quot;528&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/DsIzD/btsKnEZpN5f/DDszaxXMmpTNufAD3nS9o0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/DsIzD/btsKnEZpN5f/DDszaxXMmpTNufAD3nS9o0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/DsIzD/btsKnEZpN5f/DDszaxXMmpTNufAD3nS9o0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FDsIzD%2FbtsKnEZpN5f%2FDDszaxXMmpTNufAD3nS9o0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;759&quot; height=&quot;422&quot; data-origin-width=&quot;949&quot; data-origin-height=&quot;528&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Statistical Genomics , Bioinformatics&lt;/b&gt; 등 다양한 이름으로 사용되지만 유전체 데이터 과학자의 활동은 모두 이와 같거나 유사한 범주에 속합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;생물학(Biology), 통계학(Statistics), 컴퓨터 과학(Computer Science)&lt;/b&gt; 등 세 가지 분야가 결합되어 유전체 데이터를 수집 및 분석하고 생물학적 결론을 도출하는 데 사용됩니다. 추가적으로 실험 설계, 데이터 전처리 및 정규화, 다양한 분석 기법이 포함될 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;분자 생물학과 세포 생물학(Cell Biology)&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가장 기본적인 수준에서 우리는 세포 생물을 세 가지로 나누게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Eukaryota(진핵생물) , Archaea(고세균), Bacteria(박테리아)&lt;/b&gt; 인데요, 고세균과 박테리아를 하나로 묶어 &lt;b&gt;Prokaryotes(원핵생물)&lt;/b&gt;이라고 부르기도 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 두 생물의 아주 근본적인 그룹을 구분하자면 진핵생물은 세포핵을 가지고 있고, 원핵생물은 그렇지 않다는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;진화론적으로 이 세 가지의 생명 영역은 아주 오래전, 지구의 생명체가 진화할 때 서로 분리되었다고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;박테리아와 고세균은 세포를 설명하는 수준에서 매우 유사하게 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;진핵생물과 원핵생물의 가장 큰 차이는 진핵생물에는 세포핵이 있고 원핵생물에는 세포핵이 없다는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포핵은 아주 오래전에 DNA를 세포의 나머지 부분으로부터 분리하는 방법으로 진화했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1050&quot; data-origin-height=&quot;479&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bfgxqb/btsKnbjonJ3/PxeoyP8rFISlrTDRKwl21K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bfgxqb/btsKnbjonJ3/PxeoyP8rFISlrTDRKwl21K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bfgxqb/btsKnbjonJ3/PxeoyP8rFISlrTDRKwl21K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbfgxqb%2FbtsKnbjonJ3%2FPxeoyP8rFISlrTDRKwl21K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;581&quot; height=&quot;265&quot; data-origin-width=&quot;1050&quot; data-origin-height=&quot;479&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포 수준에서 보면 진핵 세포와 원핵세포가 다르게 보입니다. 왼쪽에는&lt;b&gt; Nucleus(세포핵)&lt;/b&gt;이 존재하는 것이 보이죠. 그래서 아주 흔한 효모라는 단세포 진핵생물도 핵이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 인간과 효모 그리고 그 사이에 있는 모든 것들은 진핵생물이라고 보시면 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리 세포에는 핵이 있고, 다른 세포 소기관도 작은 세포 구조입니다. 원핵생물은 세포핵이 없어서 DNA가 그냥 떠다니고 있다고 생각하시면 됩니다. 실제로 떠있는 것은 아니지만 내부에 느슨하게 조직되어 있는 것으로 생각하면 됩니다. 반면 진핵생물의 DNA는 좀 더 조직적인 모습을 가지고 있습니다. 진핵 세포의 DNA는 내부 깊숙하게 격리되어 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;944&quot; data-origin-height=&quot;571&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bA7FFM/btsKnGCXLzM/GIVz2VAINL7vGRbUfXgKqK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bA7FFM/btsKnGCXLzM/GIVz2VAINL7vGRbUfXgKqK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bA7FFM/btsKnGCXLzM/GIVz2VAINL7vGRbUfXgKqK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbA7FFM%2FbtsKnGCXLzM%2FGIVz2VAINL7vGRbUfXgKqK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;652&quot; height=&quot;394&quot; data-origin-width=&quot;944&quot; data-origin-height=&quot;571&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의 사진을 보면, 벽으로 둘러싸인 진핵 세포 내부에는 자체 세포막 또는 벽이 있는 핵이 있고 그 핵 안에는 DNA를 넣는 곳입니다. 우리의 DNA는 매우 긴 DNA 분자인 염색체로 구성되어 있습니다. 그리고 모든 염색체는 각 세포 안에 있고 세포 안에는 각 세포의 핵이 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA에는 예외가 있습니다. 진핵 세포 내부의 세포 소기관 중 하나를 &lt;b&gt;미토콘드리아라고&lt;/b&gt; 부릅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 세포에는 여러 개의 미토콘드리아가 있어서 미토콘드리아는 고유의 DNA를 가지고 있습니다. 인간의 경우에는 인간 Genome에서 미토콘드리아 Genome은 매우 작습니다. 우리 DNA의 1%에 불과하죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 미토콘드리아는 내부의 유전자가 상당한 양의 에너지 대사를 담당하기 때문에 세포의 발전소라고도 불립니다. 생명에 매우 중요한 부분이라고 할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포는 많은 사람들이 연구하는 특징적인 &lt;b&gt;세포 주기&lt;/b&gt;를 거칩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여러 가지 복잡한 주기를 모두 외울 필요는 없습니다. 세포는 아주 잘 정의된 주기를 갖고 있는데요, 가장 중요한 것은 분열 과정입니다. 수정란의 단세포 전구 세포에서 전체 유기체로 이동하는 과정에서 세포는 여러 번 분열하고 싶어 하며 평생 세포는 끊임없이 죽어가며 교체합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;손상된 조직을 대체하기 위해서는 대체가 잘 되어야 합니다. 그래서 세포가 분열하여 손상된 세포를 대체하는 것이죠. 따라서 이 과정의 일부를 &amp;lsquo;유사 분열&amp;rsquo;이라고 합니다. 세포가 두 개의 딸세포로 분리되어 본질적으로 동일한 두 개의 세포를 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1129&quot; data-origin-height=&quot;435&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/DEIpo/btsKmmk7iGo/dVAVKZrIBn0wEB8tU1jlXk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/DEIpo/btsKmmk7iGo/dVAVKZrIBn0wEB8tU1jlXk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/DEIpo/btsKmmk7iGo/dVAVKZrIBn0wEB8tU1jlXk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FDEIpo%2FbtsKmmk7iGo%2FdVAVKZrIBn0wEB8tU1jlXk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1129&quot; height=&quot;435&quot; data-origin-width=&quot;1129&quot; data-origin-height=&quot;435&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포가 &lt;b&gt;유사 분열&lt;/b&gt;을 겪을 때 세포의 DNA가 복제되어야 합니다. 즉 이전에 한 개가 있던 곳에 두 개의 사본을 만들어야 하는 것이죠. 분열하면서 세포 내의 서로 다른 물리적 구획으로 매우 안정적인 분리를 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 결과 원래 세포와 동일한 두 개의 딸 세포가 생성되고 두 개의 딸 세포 모두 &lt;b&gt;이배체&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;이배체(diploid) : 생물학 용어로, 모든 염색체가 쌍으로 존재하는 세포나 생물체를 의미합니다. 일반적인 체세포는 이배체이고, 각 염색체는 부모로부터 하나씩 물려받아 쌍을 이룹니다. 인간의 경우 23쌍 총 46개의 염색체를 가지고 있는 상태가 이배체입니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포 생물학에서 또 다른 중요한 점은 모든 세포가 항상 분열하여 동일한 사본 두 개를 생성하는 것이 아니라는 점입니다. 물론 손상된 기존의 세포를 교체하는 경우가 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어, 피부에 상처가 생겼고 새로운 피부 세포를 성장시켜야 한다면 피부 세포가 이전에 존재했던 것과 같은 형태가 되길 원할 것입니다. 하지만 발달 과정에서 세포는 다양한 유형의 세포로 발달해야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리 몸에는&lt;b&gt; 줄기세포(Stem cell)&lt;/b&gt;라고 부르는 좀 더 기본적인 세포에서 출발합니다. 줄기세포는 서로 다른 유형의 세포로 분열하고 분화할 수 있는 능력을 가지고 있죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 항상 두 개의 딸 세포가 서로 동일하지 않고 약간 다른 세포 분열 과정이 포함됩니다. 그리고 이 세포들은 우리가&lt;b&gt; &amp;lsquo;발달 경로&amp;rsquo;라고&lt;/b&gt; 부르는 과정을 통해 서로 다른 유형의 성숙한 세포로 분화할 수 있게 해 줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 그림에서 &lt;b&gt;Multipotential hematopoietic stem cell (HSC, 다능성 조혈모세포)라고&lt;/b&gt; 부르는 세포로부터 시작을 합니다. 이 세포는 다양한 유형의 혈액 세포를 분열시키고 생산할 수 있습니다. 이 세포들은 주로 골수에서 발견됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;HSC는 적혈구, 백혈구, 혈소판 등 여러 종류의 혈액 세포로 분화할 수 있습니다. 그리고 스스로를 복제하여 새로운 HSC를 생성할 수 있는 능력이 있습니다. 이는 혈액 세포의 지속적인 생산을 보장하죠. 그리고 조혈(혈액 생성) 과정의 시작점으로, 신체의 필요에 따라 다양한 혈액 세포를 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;937&quot; data-origin-height=&quot;535&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/erNFnH/btsKoihfGd9/YlXdbXZw0AFBzsOBJxcuP0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/erNFnH/btsKoihfGd9/YlXdbXZw0AFBzsOBJxcuP0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/erNFnH/btsKoihfGd9/YlXdbXZw0AFBzsOBJxcuP0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FerNFnH%2FbtsKoihfGd9%2FYlXdbXZw0AFBzsOBJxcuP0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;937&quot; height=&quot;535&quot; data-origin-width=&quot;937&quot; data-origin-height=&quot;535&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 세대의 종(species)을 위한 난자 세포나 정자 세포를 생산할 때는 먼저 어머니와 아버지의 염색체 사본으로 시작해서 감수분열 전에 하나의 구획으로 합쳐집니다. 그런 다음 특별한 과정이 있는데요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 과정은 의도적으로 생긴 것이 아니라 &lt;b&gt;재조합(Recombination)&lt;/b&gt;이라고 하는 것입니다. 재조합(Recombination)은 유전적 다양성을 증가시키는 중요한 생물학적 과정으로, 주로 생식 세포의 형성과정에서 발생합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;재조합은 부모의 염색체가 서로 교차하여 새로운 조합의 유전자를 생성하게 됩니다. 이 과정에서 염색체의 일부가 서로 교환됩니다. 또한, 자손이 부모와는 다른 유전적 조합을 가지게 하여, 생물의 다양성을 증가시킵니다. 이는 진화와 적응에 중요한 역할을 하게 되는 것이죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;재조합은 주로 &lt;b&gt;감수분열(Meiosis)&lt;/b&gt; 과정에서 발생합니다. 이 과정에서 생식 세포(정자와 난자)가 형성되며, 각 세포는 부모의 유전자를 반반씩 물려받습니다. 따라서 재조합은 유전자 변형의 한 형태로 볼 수 있고, 특정 유전자가 새로운 조합으로 나타날 수 있습니다. 이는 유전적 질병의 발생 가능성을 줄이거나 새로운 특성을 부여할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;886&quot; data-origin-height=&quot;526&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/08DoR/btsKooO8HrO/zuvnJGxqZykotVx3kGT9m1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/08DoR/btsKooO8HrO/zuvnJGxqZykotVx3kGT9m1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/08DoR/btsKooO8HrO/zuvnJGxqZykotVx3kGT9m1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F08DoR%2FbtsKooO8HrO%2FzuvnJGxqZykotVx3kGT9m1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;656&quot; height=&quot;389&quot; data-origin-width=&quot;886&quot; data-origin-height=&quot;526&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;분자 생물학에서 중요한 분자(Important molecules in molecular biology)&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;535&quot; data-origin-height=&quot;477&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bLZB7h/btsKocOWjHp/XmDp15Shjn6jfqeSWxK1E1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bLZB7h/btsKocOWjHp/XmDp15Shjn6jfqeSWxK1E1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bLZB7h/btsKocOWjHp/XmDp15Shjn6jfqeSWxK1E1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbLZB7h%2FbtsKocOWjHp%2FXmDp15Shjn6jfqeSWxK1E1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;535&quot; height=&quot;477&quot; data-origin-width=&quot;535&quot; data-origin-height=&quot;477&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA는 모든 유전 물질을 구성하며 &lt;b&gt;아데닌(A), 구아닌(G), 사이토신(C), 티민(T)&lt;/b&gt;이라는 네 가지 뉴클레오타이드로 이루어져 있습니다. &lt;b&gt;아데닌(A)과 구아닌(G)은 퓨린(Purines)&lt;/b&gt;이라고 불리는데 여기에 표시된 것처럼 두 개의 고리 구조를 가지고 있습니다. 그리고 &lt;b&gt;티민(T)과 시토신(C)은 피리미딘(Pyrimidines)&lt;/b&gt;이고 하나의 고리 구조를 가지고 있습니다. 이 구조를 알거나 기억할 필요는 없지만 C와 T가 비슷하고 A와 G가 서로 비슷한 것 정도만 알고 계시면 될 것 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA가 구성되는 방식은 이 분자들이 매우 특정한 방식으로 결합한다는 것입니다. A는 항상 T에 결합하고 G는 항상 C에 결합합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1375&quot; data-origin-height=&quot;401&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bxy7Wh/btsKnCURY56/4fSdvrWVSypQTOrcerxEX0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bxy7Wh/btsKnCURY56/4fSdvrWVSypQTOrcerxEX0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bxy7Wh/btsKnCURY56/4fSdvrWVSypQTOrcerxEX0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbxy7Wh%2FbtsKnCURY56%2F4fSdvrWVSypQTOrcerxEX0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1375&quot; height=&quot;401&quot; data-origin-width=&quot;1375&quot; data-origin-height=&quot;401&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리가 데이터를 쓰는 방식을 보면 DNA 염기서열 자체는 이러한 화학 구조를 쓰지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA에는 사실 방향이 존재합니다. 가닥이라는 것이 있죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생화학적 특성에 따라 DNA의 한쪽 끝을 파이프라인 말단이라고 무르고 다른 쪽 끝을 A3 프라임 말단이라고 부릅니다. 이것은 생화학 분자의 구조와 관련이 있지만 굳이 기억할 필요는 없습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또 다른 중요한 분자는 우리 몸이 작동하는 방식과 Genome이 작동하는 방식을 결정하는 중요한 분자입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 RNA는 몇 가지 중요한 차이점을 제외하면 DNA와 거의 흡사합니다. 분명한 차이점은 티민(T) 대신 우라실(U)을 가지고 있다는 점이죠. 따라서 DNA가 복제되거나 RNA로 &lt;b&gt;전사되면 A는 A로 , G는 G로 , C는 C로, T는 U&lt;/b&gt;로 대체됩니다. 그러면 DNA와 달리 단일 가닥인 RNA를 생성할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 RNA는 이중 가닥 복합체를 형성할 수는 있지만 이중 가닥은 아닌 것이죠. 하지만 일반적으로 RNA는 단일 가닥으로 이루어져 있으며 이 RNA 주형에서 단백질을 생성합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1402&quot; data-origin-height=&quot;667&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bB6Uoj/btsKm873uAq/clJYmvsm1MT953KlZNO3cK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bB6Uoj/btsKm873uAq/clJYmvsm1MT953KlZNO3cK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bB6Uoj/btsKm873uAq/clJYmvsm1MT953KlZNO3cK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbB6Uoj%2FbtsKm873uAq%2FclJYmvsm1MT953KlZNO3cK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1402&quot; height=&quot;667&quot; data-origin-width=&quot;1402&quot; data-origin-height=&quot;667&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA는 똑같은 생화학 구조를 가지고 있습니다. 우라실(U) 분자는 티민(T) 분자와 매우 유사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유전학적으로 중요한 차이점은 DNA는 유전이라는 것입니다. DNA는 세포가 분열할 때마다 세포들이 한 세대에서 다음 세대로 옮기는 물질입니다. 세포는 원래 세포의 DNA를 복제하는 DNA를 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA는 주형을 사용하여 단백질을 만들지만 RNA는 실제로 유전되는 물질이 아닙니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리는 이 분자들을 사용해서 세포가 어떻게 작동하는지 암호화합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA는 기본적으로 우리가 알아내는 프로그램입니다. 그리고 리드아웃 프로그램은 RNA로 시작해서 만들어지는데, RNA는 단백질을 만드는 데 사용됩니다. 단백질도 긴 분자이지만 DNA만큼 길지는 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아미노산의 길이는 보통 수백, 때로는 수천 개입니다. 그래서 아미노산은 좀 더 복잡한 분자입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 사진에 보이는 아미노산은 서로 연결되어 단백질을 만드는 분자이기도 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;715&quot; data-origin-height=&quot;492&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/udr12/btsKmLZknzg/X71wjYMx9psQCTPtVzbwY0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/udr12/btsKmLZknzg/X71wjYMx9psQCTPtVzbwY0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/udr12/btsKmLZknzg/X71wjYMx9psQCTPtVzbwY0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fudr12%2FbtsKmLZknzg%2FX71wjYMx9psQCTPtVzbwY0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;715&quot; height=&quot;492&quot; data-origin-width=&quot;715&quot; data-origin-height=&quot;492&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA가 단백질로 전환되는 방법은 RNA의 세 글자의 모든 조합이 RNA를 아미노산으로 암호화하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 이러한 조합은 64가지나 될 수 있습니다. 64개 중 61개는 아미노산을 암호화하고 그중 3개는 정지 코돈입니다. 따라서 번역 기계는 RNA 분자를 따라서 한 번에 세 개의 뉴클레오티드를 읽습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;535&quot; data-origin-height=&quot;811&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cvFgYy/btsKmUPL7QX/ixQs3Ogglcl8ve6tsaleKK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cvFgYy/btsKmUPL7QX/ixQs3Ogglcl8ve6tsaleKK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cvFgYy/btsKmUPL7QX/ixQs3Ogglcl8ve6tsaleKK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcvFgYy%2FbtsKmUPL7QX%2FixQs3Ogglcl8ve6tsaleKK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;396&quot; height=&quot;600&quot; data-origin-width=&quot;535&quot; data-origin-height=&quot;811&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 &lt;b&gt;3개의 뉴클레오티드마다 아미노산이 생성&lt;/b&gt;됩니다. 그리고 이 둘은 하나로 합쳐져서 우리가 단백질이라고 부르는 긴 아미노산을 형성합니다. 번역 기계가 정지 코돈 중 하나에 부딪히면 멈추게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 이미지는 3개의 아미노산을 생성하는 9개의 뉴클레오티드로 이루어진 특정한 세트의 번역을 보여주고 있습니다. 우리는 아미노산의 약칭을 위해 사용하는 20자의 알파벳으로 단백질을 씁니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;인간의 모든 단백질을 구성하는 아미노산은 총 20개입니다. 실제로는 22개인데, 21번째 아미노산이 발견된 것은 그리 오래되지 않았습니다. 22번째도 마찬가지입니다. 이 아미노산들은 주로 인간 이외의 다른 생명체에도 사용됩니다. 일반적으로 인간에 해당하는 생물학에 대해 생각해 보면 64개의 가능한 코돈이 있다고 볼 수 있습니다. 그중 61개는 아미노산을 암호화하고 정확히 20개의 아미노산을 암호화합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;569&quot; data-origin-height=&quot;362&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/kNRIr/btsKnobJF4f/83A1Q9h29sH4IK1PcydlG1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/kNRIr/btsKnobJF4f/83A1Q9h29sH4IK1PcydlG1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/kNRIr/btsKnobJF4f/83A1Q9h29sH4IK1PcydlG1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FkNRIr%2FbtsKnobJF4f%2F83A1Q9h29sH4IK1PcydlG1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;569&quot; height=&quot;362&quot; data-origin-width=&quot;569&quot; data-origin-height=&quot;362&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;분자 생물학 구조 - Molecular biology structures&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 섹션에서는 대부분 용어와 기능에 대한 설명입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 앞서 계속 언급했던 DNA에 대해서 알아보겠습니다. DNA 자체는 매우 긴 분자입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 DNA를 펼쳐보면 각 세포 내부는 길이가 약 2m에 달합니다. 물론 세포는 매우 미세한 크기입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세포 안에 들어갈 수 있으려면 아주 효율적인 방식으로 세포를 감싸야합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것은 실제로 &lt;b&gt;히스톤&lt;/b&gt;이라고 불리는 다른 분자들을 감싸고 있습니다. 아래의 그림에서 왼쪽에 있는 끈에 달린 구슬처럼 말이죠. 그리고 그 히스톤들은 약간 더 긴 조직화된 구조들에 싸여 있습니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style1&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;히스톤 : DNA가 세포 내에서 효율적으로 포장되고 조직될 수 있도록 돕는 단백질의 종류.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것들이 서로 감겨서 슈퍼 코일링 되어 더 큰 구조로 되어 결국에는 오른쪽에 보이는 염색체를 형성하보니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA는 자기 주위를 감고 있으며 아주 복잡한 방식으로 자기 주위를 감습니다. 이제 DNA가 전사되고 번역되는 과정을 거치려면 DNA의 포장을 약간 풀어야 합니&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;927&quot; data-origin-height=&quot;376&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/tftOZ/btsKoZVCDxL/tepVd9c370AcRKD4ntkofK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/tftOZ/btsKoZVCDxL/tepVd9c370AcRKD4ntkofK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/tftOZ/btsKoZVCDxL/tepVd9c370AcRKD4ntkofK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FtftOZ%2FbtsKoZVCDxL%2FtepVd9c370AcRKD4ntkofK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;927&quot; height=&quot;376&quot; data-origin-width=&quot;927&quot; data-origin-height=&quot;376&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다른 종류의 구조는 물리적인 구조가 아니라 서열 구조라고 하고 이걸&lt;b&gt; 반복(Repeats)&lt;/b&gt;이라고 부릅니다. 데이터 분석에서 반복에 대해 많이 듣게 될 것입니다. 반복은 두 가지 유형으로 분류할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;직렬 반복(Tandem repeats)&lt;/b&gt;은 연속해서 일어나는 동일한 수열의 반복입니다. 아래의 그림에서는 &amp;lsquo;ATTCG&amp;rsquo;가 세 번 반복되고 있는 중이죠? 이는 수백 개의 염기쌍 길이의 염기서열이 수천 번 연속적으로 나타나는 경우가 있습니다. 각 염색체 중심체는 180개 염기쌍의 반복으로 이루어져 있는데, 연속적으로 수십만 번 반복됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 반복은 매우 길고 복잡해질 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;수많은 반복 시퀀스는 여기저기 흩어져 있어서 다른 유형의 분석에 문제를 일으키기도 하고 때로는 문제를 일으킬 수도 있습니다. 염기서열이 매우 짧으면 DNA 염기서열을 읽을 때 한 번에 수백 개의 염기쌍만 읽는다는 것을 기억해야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;797&quot; data-origin-height=&quot;502&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/czX7cq/btsKnmSt5ie/5n2XkhklqSva4GA8uDN2x0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/czX7cq/btsKnmSt5ie/5n2XkhklqSva4GA8uDN2x0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/czX7cq/btsKnmSt5ie/5n2XkhklqSva4GA8uDN2x0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FczX7cq%2FbtsKnmSt5ie%2F5n2XkhklqSva4GA8uDN2x0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;797&quot; height=&quot;502&quot; data-origin-width=&quot;797&quot; data-origin-height=&quot;502&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RNA구조에서 녹색으로 표시된 염기서열이 있는데 이것을 &lt;b&gt;코딩 서열(Coding sequence, CDS&lt;/b&gt;)이라고 합니다. 이는 실제로 단백질로 번역이 되는 부분이고 아미노산 서열을 결정하는 정보를 포함하고 있습니다. 3개의 염기가 하나의 아미노산을 지정합니다. 하지만 중요한 점은 DNA에서 전사된 RNA 부분이 이 코딩 서열보다 더 길다는 것입니다. mRNA의 시작 부분에는 번역되지 않는 부분이 있는데, 이를 &lt;b&gt;UTR(비번역 영역)&lt;/b&gt;이라고 부릅니다. RNA의 시작점이 5' 말단이기 때문에 이를 5' UTR이라고 합니다. 반대쪽 끝에는 3' UTR이 있으며, 이는 보통 더 긴 길이를 가집니다. 이 역시 단백질로 번역되지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;인간 세포를 포함한 진핵 세포의 또 다른 중요한 특징은 &lt;b&gt;폴리 A 꼬리(Poly-A tail)&lt;/b&gt;가 추가된다는 것입니다. DNA가 RNA로 전사되고 인트론이 제거된 후, RNA 말단에 일련의 아데닌(A) 염기들이 추가됩니다. 이 폴리A 꼬리는 실험적으로 RNA를 세포 밖으로 추출할 때 활용할 수 있는 일종의 '갈고리' 역할을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실제로 DNA에서 RNA로 전사되는 과정은 이보다 더 복잡합니다. 전사되는 DNA에는 인트론도 포함되어 있으며, 이는 나중에 제거됩니다. 최종적으로 단백질을 암호화하는 부분을 찾으려면, UTR을 식별하여 제거하고 남은 코딩 서열을 읽어야 합니다. 이를 통해 아미노산 서열로 직접 번역할 수 있게 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;918&quot; data-origin-height=&quot;175&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/GbXxm/btsKmIhgMco/BtkfG6vFZSGJKW2wzIwLl1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/GbXxm/btsKmIhgMco/BtkfG6vFZSGJKW2wzIwLl1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/GbXxm/btsKmIhgMco/BtkfG6vFZSGJKW2wzIwLl1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FGbXxm%2FbtsKmIhgMco%2FBtkfG6vFZSGJKW2wzIwLl1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;918&quot; height=&quot;175&quot; data-origin-width=&quot;918&quot; data-origin-height=&quot;175&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA는 RNA로 전사되는데, 이 과정은 생각보다 복잡합니다. 실제로 전사되는 DNA 부분은 최종 RNA 산물보다 훨씬 깁니다. DNA가 RNA로 전사될 때는 엑손과 인트론을 모두 포함합니다. 이미지에 나타난 것과 같이 한 유전자는 서로 다른 색으로 표시된 5개의 엑손을 가질 수 있으며, 이 &lt;b&gt;엑손&lt;/b&gt;들 사이에는 &lt;b&gt;인트론&lt;/b&gt;이라 부르는 염기서열이 존재합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;전사 후에는 중요한 과정이 일어나는데, 인트론이 제거되고 엑손들이 서로 연결됩니다. 제거된 인트론은 세포에서 버려지거나 재활용됩니다. 남은 엑손들이 실제로 단백질로 번역되는 부분입니다. 이전에 설명했던 &lt;b&gt;코딩 서열&lt;/b&gt;은 사실 이렇게 서로 연결된 엑손들의 순서였던 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 구조의 중요한 특징은 세포가 엑손들을 다양한 방식으로 조합할 수 있다는 것입니다. 인트론을 제거하고 엑손을 연결하는 과정에서, 엑손들을 서로 다른 조합으로 연결할 수 있는데, 이를 '&lt;b&gt;대체 스플라이싱'&lt;/b&gt;이라고 합니다. 이는 매우 흔한 현상으로, 처음 발견됐을 때는 특이하고 드문 현상으로 여겨졌지만 현재는 인간 유전자의 90% 이상이 어떤 형태로든 대체 스플라이싱을 겪는다는 것이 밝혀졌습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 매우 중요한 의미를 갖는데, DNA의 전체 서열을 알고 어떤 부분이 RNA로 전사되는지 안다고 해도, 정확히 어떤 단백질이 만들어질 수 있는지 알아내기 위해서는 더 많은 연구가 필요하다는 뜻입니다. 같은 유전자에서 서로 다른 조합의 엑손으로 다른 성숙한 메신저 RNA가 만들어질 수 있고, 이는 결과적으로 서로 다른 단백질을 만들어낼 수 있기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;931&quot; data-origin-height=&quot;486&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ddcZVy/btsKoYJbSpp/CH7kB9sfVOhJq929d7Ybjk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ddcZVy/btsKoYJbSpp/CH7kB9sfVOhJq929d7Ybjk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ddcZVy/btsKoYJbSpp/CH7kB9sfVOhJq929d7Ybjk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FddcZVy%2FbtsKoYJbSpp%2FCH7kB9sfVOhJq929d7Ybjk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;931&quot; height=&quot;486&quot; data-origin-width=&quot;931&quot; data-origin-height=&quot;486&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단백질은 매우 복잡한 구조를 형성하는데, 여기에는 중요한 2차 구조가 포함됩니다. 단백질의 가장 대표적인 두 가지 2차 구조는 &lt;b&gt;베타 시트(beta sheet)와 알파 나선(alpha helices)&lt;/b&gt;입니다. 아미노산들은 평평한 구조인 베타 시트를 형성하거나, 꼬여서 나선형 구조인 알파 나선을 형성할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현재까지 수천 개의 단백질 구조가 해결되었습니다. 생물물리학자들이 이러한 단백질들의 성숙한 구조를 밝혀냈는데, 이는 매우 중요한 의미를 가집니다. 왜냐하면 단백질의 구조에 따라 그 기능이 달라지기 때문입니다. 이것이 바로 우리가 단백질 구조를 연구하는 이유입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단백질의 기능을 이해하기 위해서는 단백질의 어느 부분이 구조 내부에 묻혀 있고, 어떤 부분이 바깥쪽에 있는지를 아는 것이 중요합니다. 바깥쪽에 노출된 부분이 아마도 단백질의 활성이 더 높은 부분일 것입니다. 이러한 구조적 이해는 단백질의 기능을 파악하고 예측하는 데 핵심적인 역할을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;912&quot; data-origin-height=&quot;515&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/SQSc2/btsKoSPYPRg/fknNxZb9PIrVLZN4yjRPOK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/SQSc2/btsKoSPYPRg/fknNxZb9PIrVLZN4yjRPOK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/SQSc2/btsKoSPYPRg/fknNxZb9PIrVLZN4yjRPOK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FSQSc2%2FbtsKoSPYPRg%2FfknNxZb9PIrVLZN4yjRPOK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;912&quot; height=&quot;515&quot; data-origin-width=&quot;912&quot; data-origin-height=&quot;515&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리 몸의 모든 세포는 동일한 유전자를 가지고 있지만, 세포마다 다르게 행동합니다. 예를 들어, 피부 세포는 혈액 세포와 매우 다르게 행동하는데, 이는 서로 다른 유전자가 활성화되어 있기 때문입니다. 이러한 세포 활동을 조절하는 중요한 방법 중 하나가 전사 인자입니다. &lt;b&gt;&lt;span data-token-index=&quot;1&quot;&gt;전사 인자(transcription factors)&lt;/span&gt;&lt;/b&gt;는 게놈에 의해 암호화되는 단백질입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DNA에 돌아가서 DNA 자체나 염색체에 결합하여 단백질의 발현을 조절할 수 있습니다. 이 전사 인자들은 보통 다른 유전자의 상류 부분에 결합하여, 그 유전자의 생산을 가속화하거나 억제할 수 있습니다. 이는 세포가 얼마나 많은 단백질을 생산할지 결정하는 매우 중요한 조절 메커니즘입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;924&quot; data-origin-height=&quot;518&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/IjIAc/btsKoVskmKh/KKgeys1dUFmj6Q97KSf3r0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/IjIAc/btsKoVskmKh/KKgeys1dUFmj6Q97KSf3r0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/IjIAc/btsKoVskmKh/KKgeys1dUFmj6Q97KSf3r0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FIjIAc%2FbtsKoVskmKh%2FKKgeys1dUFmj6Q97KSf3r0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;924&quot; height=&quot;518&quot; data-origin-width=&quot;924&quot; data-origin-height=&quot;518&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한, &lt;b&gt;후생적(후생유전학적) 메커니즘&lt;/b&gt;도 중요한 역할을 합니다. 후생유전학은 'genetics를 넘어선 것'을 의미하며, DNA 자체 외부에 있는 요인들을 말합니다. 이러한 요인들은 직접적으로 유전되지는 않지만, 세포의 기능과 유전자 발현 방식을 통제하는 역할을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가장 중요한 후생유전학적 구조 중 하나는 &lt;b&gt;메틸기(메틸 그룹)&lt;/b&gt;입니다. DNA가 메틸화되면 이 메틸화는 세포 주기를 통해 딸세포로 전달될 수 있습니다. 이러한 메틸화 흔적은 유전자의 양이나 발현 시기에 영향을 미치는 조절 요인이 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;중요한 점은 메틸화는 세포 간에는 유전되지만, 새로운 개체가 생성될 때는 유전되지 않는다는 것입니다. &lt;i&gt;즉, 세포가 분열하여 같은 유형의 새로운 세포를 생성할 때만 유전됩니다.&lt;/i&gt;&amp;nbsp;이러한 후생유전학적 메커니즘은 세포의 기능을 이해하는 데 매우 중요한 또 다른 유형의 구조입니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;750&quot; data-origin-height=&quot;497&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cODAxo/btsKoUmFres/3aQCLOZLP5mGqjogkkMXnk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cODAxo/btsKoUmFres/3aQCLOZLP5mGqjogkkMXnk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cODAxo/btsKoUmFres/3aQCLOZLP5mGqjogkkMXnk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcODAxo%2FbtsKoUmFres%2F3aQCLOZLP5mGqjogkkMXnk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;750&quot; height=&quot;497&quot; data-origin-width=&quot;750&quot; data-origin-height=&quot;497&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;유전자에서 표현형까지 - From genotype to phenotype&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;유전자형( genotype)&lt;/b&gt;은 세포 안에 있는 모든 유전자의 서열을 총망라한 것을 의미합니다. 다시 말해, 유전자의 모든 돌연변이를 포함하는 개념으로 볼 수 있습니다. 이러한 유전자형은 신체가 어떻게 기능하는지, 세포가 어떻게 작동하는지를 결정하며, 특정 특성이나 질병의 유무도 결정합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;반면 &lt;b&gt;표현형(phenotype)&lt;/b&gt;은 이러한 유전자형을 제외한 나머지 모든 것을 의미합니다. 구체적으로는 우리가 관찰할 수 있는 모든 특성들을 말합니다. 예를 들어 머리 색깔, 눈 색깔, 키, 몸무게와 같은 신체적 특징뿐만 아니라 유전병이나 건강 상태, 심지어 성격의 여러 측면까지도 포함됩니다. 유전체학 연구에서는 이러한 유전자형이 표현형과 어떻게 연관되어 있는지를 이해하는 것이 중요한 목표이며 이를 위해 다양한 종류의 실험이 수행되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;895&quot; data-origin-height=&quot;464&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cJA1Xv/btsKot30RDO/iDDxptKOPksyCRp7X4m5k1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cJA1Xv/btsKot30RDO/iDDxptKOPksyCRp7X4m5k1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cJA1Xv/btsKot30RDO/iDDxptKOPksyCRp7X4m5k1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcJA1Xv%2FbtsKot30RDO%2FiDDxptKOPksyCRp7X4m5k1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;895&quot; height=&quot;464&quot; data-origin-width=&quot;895&quot; data-origin-height=&quot;464&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;멘델의 완두콩 실험은 유전자형과 표현형의 관계를 이해하는 좋은 예시를 제공합니다. 완두콩은 사람이나 동물처럼 &lt;span data-token-index=&quot;1&quot;&gt;이배체&lt;/span&gt;로, 모든 염색체에 두 개의 사본이 있어 모든 유전자에 대해 두 개의 사본을 가집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 실험에서 녹색 완두콩은 녹색 유전자를 두 개(yy) 가지고 있고, 노란 완두콩은 녹색 유전자 사본 하나와 노란색 유전자 사본 하나(Yy)를 가집니다. 여기서 대문자 Y는 우성 형질을, 소문자 y는 열성 형질을 나타냅니다. 열성 형질은 그 형질의 유전자 사본이 두 개 있어야만 표현되는 반면, 우성 형질은 유전자 중 하나에만 그 형질이 있어도 표현됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;848&quot; data-origin-height=&quot;488&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cUvt8g/btsKo1lCbDG/vmRtrkhWpT2CrZBMfQkzOK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cUvt8g/btsKo1lCbDG/vmRtrkhWpT2CrZBMfQkzOK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cUvt8g/btsKo1lCbDG/vmRtrkhWpT2CrZBMfQkzOK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcUvt8g%2FbtsKo1lCbDG%2FvmRtrkhWpT2CrZBMfQkzOK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;744&quot; height=&quot;428&quot; data-origin-width=&quot;848&quot; data-origin-height=&quot;488&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;지난 10년간 전체 유전체 염기서열 분석이 크게 확대되면서, 과학계는 전 세계 수천 개의 개별 게놈 염기서열을 분석해 왔습니다. 이를 통해 세계 각지의 유전적 변이를 파악할 수 있게 되었습니다. 연구 결과 세계 각 지역의 사람들이 그 지역에 특징적인 돌연변이를 가지고 있다는 것이 밝혀졌습니다. 이러한 돌연변이는 &lt;b&gt;단순한 &lt;span data-token-index=&quot;1&quot;&gt;염기 다형성(SNP) 일&lt;/span&gt;&lt;/b&gt; 수도 있고, DNA에 더 큰 덩어리를 삽입하거나 삭제하는 것과 같은 더 큰 변화일 수도 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;728&quot; data-origin-height=&quot;491&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bAaXFk/btsKnQZRKFo/FKynSlzsoWzS64jDUk9Us0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bAaXFk/btsKnQZRKFo/FKynSlzsoWzS64jDUk9Us0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bAaXFk/btsKnQZRKFo/FKynSlzsoWzS64jDUk9Us0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbAaXFk%2FbtsKnQZRKFo%2FFKynSlzsoWzS64jDUk9Us0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;728&quot; height=&quot;491&quot; data-origin-width=&quot;728&quot; data-origin-height=&quot;491&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;유럽 전역의 사람들을 대상으로 한 유전체 연구는 유전적 특성이 &lt;b&gt;&lt;span data-token-index=&quot;1&quot;&gt;지역화&lt;/span&gt;&lt;/b&gt;되는 경향을 잘 보여줍니다. &lt;b&gt;주성분 분석&lt;/b&gt;이라는 통계적 방법을 사용하여 수백만 개의 염기서열 정보를 두 차원으로 축소해 분석한 결과, 같은 지역에 사는 사람들은 유전적으로 비슷한 특성을 공유하는 것으로 나타났습니다. 이는 같은 지역의 사람들이 결혼하고 자녀를 낳는 경향이 있기 때문에 나타나는 자연스러운 현상입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;875&quot; data-origin-height=&quot;532&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/o4ZhT/btsKodmOAfj/2uPweT8XP56kR58kCXi8A1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/o4ZhT/btsKodmOAfj/2uPweT8XP56kR58kCXi8A1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/o4ZhT/btsKodmOAfj/2uPweT8XP56kR58kCXi8A1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fo4ZhT%2FbtsKodmOAfj%2F2uPweT8XP56kR58kCXi8A1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;607&quot; height=&quot;369&quot; data-origin-width=&quot;875&quot; data-origin-height=&quot;532&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적인 유전자형은 AA, AG, GG 이렇게 두 개씩 됩니다. 유럽인의 경우 A가 두 개이면 갈색 눈을 가질 확률은 85%이고, 녹색 눈을 가질 확률은 14%, 파란 눈을 가질 확률은 1%입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;642&quot; data-origin-height=&quot;483&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bdB1z0/btsKn6aiQXt/xWRfBs4HFCVspKq2Wlk7O0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bdB1z0/btsKn6aiQXt/xWRfBs4HFCVspKq2Wlk7O0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bdB1z0/btsKn6aiQXt/xWRfBs4HFCVspKq2Wlk7O0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbdB1z0%2FbtsKn6aiQXt%2FxWRfBs4HFCVspKq2Wlk7O0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;642&quot; height=&quot;483&quot; data-origin-width=&quot;642&quot; data-origin-height=&quot;483&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;현대의 유전자형과 표현형 사이의 연관성 연구는 매우 효율적으로 이루어지고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;특정 특징이나 질병을 가진 많은 사람들의 전체 게놈 염기서열을 분석하여 특정 유전자의 돌연변이를 찾아냅니다. 이러한 게놈 전반의 연관성 연구를 통해 특정 SNP나 유전적 변이와 질병이나 특성 사이의 관계를 밝혀낼 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 중요한 점은 이러한 연관성이 완벽한 인과관계를 의미하지는 않는다는 것입니다. 특정 유전적 변이가 있다고 해서 반드시 특정 질병이나 특성이 나타나는 것은 아니며, 단지 그러한 가능성이 상대적으로 높아진다는 것을 의미합니다.&lt;/p&gt;</description>
      <category>Bioinformatics</category>
      <category>AI</category>
      <category>bioinformatics</category>
      <category>genome</category>
      <category>딥러닝</category>
      <category>생명공학</category>
      <category>생명정보학</category>
      <category>알파폴드</category>
      <category>유전체</category>
      <category>유전체학</category>
      <category>유전학</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/135</guid>
      <comments>https://minyoungxi.tistory.com/135#entry135comment</comments>
      <pubDate>Tue, 29 Oct 2024 15:16:36 +0900</pubDate>
    </item>
    <item>
      <title>[High Python] - 컴프리헨션과 제너레이터에 대해서 알아보자</title>
      <link>https://minyoungxi.tistory.com/134</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;파이썬에서는&amp;nbsp;&lt;b&gt;컴프리헨션(Comprehension)&amp;nbsp;&lt;/b&gt;이라는&amp;nbsp;특별한&amp;nbsp;구문을&amp;nbsp;사용해서&amp;nbsp;리스트,&amp;nbsp;딕셔너리,&amp;nbsp;집합&amp;nbsp;등의&amp;nbsp;데이터&amp;nbsp;타입을&amp;nbsp;간결하게&amp;nbsp;이터레이션하면서&amp;nbsp;원소로부터&amp;nbsp;파생되는&amp;nbsp;데이터&amp;nbsp;구조를&amp;nbsp;생성할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;컴프리헨션&amp;nbsp;코딩&amp;nbsp;스타일은&amp;nbsp;제너레이터(Generator)를&amp;nbsp;사용하는&amp;nbsp;함수로&amp;nbsp;확장할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제너레이터는&amp;nbsp;함수가&amp;nbsp;점진적으로&amp;nbsp;반환하는&amp;nbsp;값으로&amp;nbsp;이뤄지는&amp;nbsp;스트림을&amp;nbsp;만들어줍니다.&amp;nbsp;이터레이터를&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;곳이라면&amp;nbsp;어디에서나&amp;nbsp;제너레이터&amp;nbsp;함수를&amp;nbsp;호출한&amp;nbsp;결과를&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;제너레이터를&amp;nbsp;사용하면&amp;nbsp;성능을&amp;nbsp;향상시키고&amp;nbsp;메모리&amp;nbsp;사용을&amp;nbsp;줄이며&amp;nbsp;가독성을&amp;nbsp;높일&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;개인적으로&amp;nbsp;파이썬에&amp;nbsp;대해서&amp;nbsp;최소한의&amp;nbsp;이해를&amp;nbsp;하고&amp;nbsp;있다고&amp;nbsp;자신있게&amp;nbsp;말하기&amp;nbsp;위해서는&lt;b&gt;&amp;nbsp;Iterable,&amp;nbsp;Iterator,&amp;nbsp;Generator&lt;/b&gt;에&amp;nbsp;대해&amp;nbsp;문제없이&amp;nbsp;구분하고&amp;nbsp;활용할&amp;nbsp;수&amp;nbsp;있어야&amp;nbsp;한다고&amp;nbsp;생각합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Comprehension&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Comprehension&lt;/b&gt;은&amp;nbsp;보통&amp;nbsp;'리스트&amp;nbsp;표현식'&amp;nbsp;혹은&amp;nbsp;'리스트&amp;nbsp;조건식'과&amp;nbsp;같이&amp;nbsp;번역해서&amp;nbsp;사용하는&amp;nbsp;경우가&amp;nbsp;많습니다.&amp;nbsp;그런데&amp;nbsp;표현식은&amp;nbsp;정규&amp;nbsp;표현식과&amp;nbsp;같은&amp;nbsp;expression을&amp;nbsp;떠올리게&amp;nbsp;하고&amp;nbsp;조건식은&amp;nbsp;'if'문을&amp;nbsp;떠올리게&amp;nbsp;합니다. &lt;br /&gt;&lt;br /&gt;제가&amp;nbsp;공부한&amp;nbsp;내용에&amp;nbsp;따르면&amp;nbsp;저&amp;nbsp;위의&amp;nbsp;번역은&amp;nbsp;완벽하다고&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;없습니다.&amp;nbsp;그래서&amp;nbsp;저는&amp;nbsp;'리스트&amp;nbsp;컴프리헨션'이라는&amp;nbsp;단어를&amp;nbsp;그대로&amp;nbsp;사용하도록&amp;nbsp;하겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Map과&amp;nbsp;filter&amp;nbsp;함수&amp;nbsp;대신&amp;nbsp;컴프리헨션&amp;nbsp;사용하기&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;파이썬에서는 다른 시퀀스나 이터러블에서 새 리스트를 만들어내는 간결한 구문을&lt;b&gt; '리스트 컴프리헨션'&lt;/b&gt;이라고 합니다.&lt;br /&gt;예를 들어 리스트에 있는 모든 원소의 제곱을 계산한다고 하면 for loop 문을 통해서 간단히 구현할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729578920285&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;a = [1,2,3,4,5,6,7,8,9,10]

squares = []

for x in a:
    squares.append(x**2)
print(squares)

[1, 4, 9, 16, 25, 36, 49, 64, 81, 100]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;리스트&amp;nbsp;컴프리헨션을&amp;nbsp;사용해서&amp;nbsp;루프로&amp;nbsp;처리할&amp;nbsp;대상인&amp;nbsp;입력&amp;nbsp;시퀀스의&amp;nbsp;원소에&amp;nbsp;적용할&amp;nbsp;변환식을&amp;nbsp;지정함으로써&amp;nbsp;같은&amp;nbsp;결과를&amp;nbsp;더&amp;nbsp;'짧은'&amp;nbsp;코드로&amp;nbsp;구현할&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729578951041&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;squares = [x**2 for x in a]
print(squares)

[1, 4, 9, 16, 25, 36, 49, 64, 81, 100]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이런&amp;nbsp;계산에&amp;nbsp;'map'&amp;nbsp;기능을&amp;nbsp;사용하려면&amp;nbsp;반드시&amp;nbsp;lambda&amp;nbsp;함수를&amp;nbsp;정의해야&amp;nbsp;하는데,&amp;nbsp;시각적으로&amp;nbsp;그렇게&amp;nbsp;좋아보이지&amp;nbsp;않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729578968895&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;alt = map(lambda x: x**2 , a)
alt&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본격적으로&amp;nbsp;map과&amp;nbsp;filter를&amp;nbsp;사용하는&amp;nbsp;경우와&amp;nbsp;컴프리헨션을&amp;nbsp;사용하는&amp;nbsp;경우를&amp;nbsp;비교해보면&amp;nbsp;컴프리헨션&amp;nbsp;코드가&amp;nbsp;훨씬&amp;nbsp;가독성이&amp;nbsp;높고&amp;nbsp;효율적인&amp;nbsp;것을&amp;nbsp;확인할&amp;nbsp;수&amp;nbsp;있습니다. &lt;br /&gt;&lt;br /&gt;-&lt;b&gt;&amp;nbsp;예시&amp;nbsp;:&lt;/b&gt;&amp;nbsp;2로&amp;nbsp;나눠&amp;nbsp;떨어지는&amp;nbsp;수(짝수)의&amp;nbsp;제곱만&amp;nbsp;계산하고&amp;nbsp;싶다고&amp;nbsp;해보자.&amp;nbsp;이런&amp;nbsp;계산을&amp;nbsp;수행하려면&amp;nbsp;다음&amp;nbsp;코드처럼&amp;nbsp;리스트&amp;nbsp;컴프리헨션에서&amp;nbsp;루프&amp;nbsp;뒤에&amp;nbsp;조건식을&amp;nbsp;추가하면&amp;nbsp;됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579007401&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;even_squares = [x**2 for x in a if x % 2 == 0]

print(even_squares)

[4, 16, 36, 64, 100]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;lambda&amp;nbsp;함수를&amp;nbsp;사용해서&amp;nbsp;위와&amp;nbsp;같은&amp;nbsp;결과를&amp;nbsp;얻을&amp;nbsp;수&amp;nbsp;있지만,&amp;nbsp;이렇게&amp;nbsp;만든&amp;nbsp;코드는&amp;nbsp;읽기가&amp;nbsp;어렵습니다.&lt;/p&gt;
&lt;pre id=&quot;code_1729579028394&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;alt = map(lambda x : x**2, filter(lambda x: x % 2 ==0, a))
assert even_squares == list(alt)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;딕셔너리&amp;nbsp;집합에도&amp;nbsp;리스트&amp;nbsp;컴프리헨션과&amp;nbsp;동등한&amp;nbsp;컴프리헨션이&amp;nbsp;있습니다.&amp;nbsp;각각&amp;nbsp;딕셔너리&amp;nbsp;컴프리헨션과&amp;nbsp;집합&amp;nbsp;컴프리헨션이라고&amp;nbsp;합니다. &lt;br /&gt;&lt;br /&gt;이를&amp;nbsp;사용하면&amp;nbsp;알고리즘을&amp;nbsp;작성할&amp;nbsp;때&amp;nbsp;딕셔너리나&amp;nbsp;집합에서&amp;nbsp;파생된&amp;nbsp;데이터&amp;nbsp;구조를&amp;nbsp;쉽게&amp;nbsp;만들&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579122109&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;even_squares_dict = {x: x**2 for x in a if x % 2 ==0}
threes_cubed_set = {x**3 for x in a if x % 3 == 0}

print(even_squares_dict)
print(threes_cubed_set)

{2: 4, 4: 16, 6: 36, 8: 64, 10: 100}
{216, 729, 27}&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사용&amp;nbsp;방법은&amp;nbsp;그렇게&amp;nbsp;복잡하지&amp;nbsp;않습니다.&amp;nbsp;각각의&amp;nbsp;호출을&amp;nbsp;적절한&amp;nbsp;생성자로&amp;nbsp;감싸면&amp;nbsp;같은&amp;nbsp;결과를&amp;nbsp;map과&amp;nbsp;filter를&amp;nbsp;사용해&amp;nbsp;만들&amp;nbsp;수도&amp;nbsp;있습니다.&amp;nbsp; &lt;br /&gt;&lt;br /&gt;하지만&amp;nbsp;이렇게&amp;nbsp;생성자로&amp;nbsp;감싸서&amp;nbsp;작성한&amp;nbsp;코드는&amp;nbsp;너무&amp;nbsp;길기&amp;nbsp;때문에&amp;nbsp;여러&amp;nbsp;줄에&amp;nbsp;나눠&amp;nbsp;써야&amp;nbsp;하고,&amp;nbsp;그러면&amp;nbsp;노이즈가&amp;nbsp;더&amp;nbsp;늘어나므로&amp;nbsp;가능하면&amp;nbsp;map과&amp;nbsp;filter를&amp;nbsp;사용하는&amp;nbsp;것을&amp;nbsp;피하는&amp;nbsp;편이&amp;nbsp;좋습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579141884&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;alt_dict = dict(map(lambda x : (x, x**2),
                    filter(lambda x: x % 2 == 0, a)))

alt_set = set(map(lambda x : x**3,
                  filter(lambda x : x%3 ==0, a)))&lt;/code&gt;&lt;/pre&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Summary&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;nbsp;리스트&amp;nbsp;컴프리헨션을&amp;nbsp;사용하면&amp;nbsp;lambda&amp;nbsp;식을&amp;nbsp;사용하지&amp;nbsp;않기&amp;nbsp;때문에&amp;nbsp;같은&amp;nbsp;일을&amp;nbsp;하는&amp;nbsp;map&amp;nbsp;or&amp;nbsp;filter&amp;nbsp;내장&amp;nbsp;함수를&amp;nbsp;사용하는&amp;nbsp;것보다&amp;nbsp;더&amp;nbsp;명확합니다. &lt;br /&gt;&lt;br /&gt;-&amp;nbsp;리스트&amp;nbsp;컴프리헨션을&amp;nbsp;사용하면&amp;nbsp;쉽게&amp;nbsp;입력&amp;nbsp;리스트의&amp;nbsp;원소를&amp;nbsp;건너뛸&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;하지만&amp;nbsp;map을&amp;nbsp;사용하는&amp;nbsp;경우에는&amp;nbsp;filter의&amp;nbsp;도움을&amp;nbsp;받아야만&amp;nbsp;합니다.&amp;nbsp; &lt;br /&gt;&lt;br /&gt;-&amp;nbsp;딕셔너리와&amp;nbsp;집합도&amp;nbsp;컴프리헨션으로&amp;nbsp;생성할&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;추가&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의&amp;nbsp;예시에서&amp;nbsp;봤던&amp;nbsp;것처럼&amp;nbsp;if문을&amp;nbsp;사용할&amp;nbsp;경우&amp;nbsp;조건을&amp;nbsp;걸&amp;nbsp;수가&amp;nbsp;있습니다.&amp;nbsp;이렇게&amp;nbsp;리스트&amp;nbsp;컴프리헨션에서&amp;nbsp;조건문을&amp;nbsp;통해&amp;nbsp;특정&amp;nbsp;값만&amp;nbsp;필터링을&amp;nbsp;할&amp;nbsp;수&amp;nbsp;있다고&amp;nbsp;말씀드렸죠&amp;nbsp;?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579208488&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;size = 10
arr = [n for n in range(1, 11) if n % 2 == 0]

print(arr)

[2, 4, 6, 8, 10]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;그렇다면&amp;nbsp;조건문&amp;nbsp;여러&amp;nbsp;개를&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있을까요&amp;nbsp;?&amp;nbsp; &lt;br /&gt;&lt;br /&gt;만약&amp;nbsp;1부터&amp;nbsp;10까지의&amp;nbsp;값을&amp;nbsp;루프하는&amp;nbsp;리스트를&amp;nbsp;만든다고&amp;nbsp;가정해봅시다.&amp;nbsp; &lt;br /&gt;&lt;br /&gt;조건은&amp;nbsp;'2의&amp;nbsp;배수이고&amp;nbsp;3의&amp;nbsp;배수'인&amp;nbsp;수만&amp;nbsp;필터링하거나,&amp;nbsp;'2의&amp;nbsp;배수이거나&amp;nbsp;3의&amp;nbsp;배수'인&amp;nbsp;수만&amp;nbsp;필터링을&amp;nbsp;하는&amp;nbsp;것입니다. &lt;br /&gt;&lt;br /&gt;첫&amp;nbsp;번째&amp;nbsp;조건에&amp;nbsp;해당하는&amp;nbsp;코드는&amp;nbsp;역시&amp;nbsp;다음과&amp;nbsp;같이&amp;nbsp;한&amp;nbsp;줄로&amp;nbsp;작성할&amp;nbsp;수&amp;nbsp;있습니다. &lt;br /&gt;&lt;br /&gt;그런데&amp;nbsp;여기서&amp;nbsp;이상한&amp;nbsp;점이&amp;nbsp;있는데요,&amp;nbsp;&amp;nbsp;'2의&amp;nbsp;배수이고&amp;nbsp;3의&amp;nbsp;배수'라면&amp;nbsp;AND&amp;nbsp;조건을&amp;nbsp;사용해야&amp;nbsp;하는데&amp;nbsp;'and'를&amp;nbsp;사용하지&amp;nbsp;않습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579249041&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;arr = [n for n in range(1, 31) if n % 2 == 0 if n % 3 == 0]

arr

[6, 12, 18, 24, 30]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;놀랍게도&amp;nbsp;and를&amp;nbsp;명시적으로&amp;nbsp;넣어주면&amp;nbsp;SyntaxError가&amp;nbsp;발생하는&amp;nbsp;것을&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579283490&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;arr = [n for n in range(1, 31) if n % 2 == 0 and if n % 3 == 0]

arr

SyntaxError: invalid syntax&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;반대로&amp;nbsp;다중&amp;nbsp;if&amp;nbsp;조건문에&amp;nbsp;대한&amp;nbsp;OR&amp;nbsp;연산은&amp;nbsp;아예&amp;nbsp;안&amp;nbsp;됩니다.&amp;nbsp;명시적으로&amp;nbsp;or&amp;nbsp;연산자를&amp;nbsp;입력하면&amp;nbsp;SyntaxError가&amp;nbsp;발생하고&amp;nbsp;쓰지&amp;nbsp;않으면&amp;nbsp;AND로&amp;nbsp;해석됩니다.&amp;nbsp;따라서&amp;nbsp;이런&amp;nbsp;경우에는&amp;nbsp;if&amp;nbsp;문을&amp;nbsp;여러&amp;nbsp;개&amp;nbsp;쓰지&amp;nbsp;말고,&amp;nbsp;한&amp;nbsp;if&amp;nbsp;문에서&amp;nbsp;&amp;lsquo;or&amp;rsquo;&amp;nbsp;연산자로&amp;nbsp;논리&amp;nbsp;연산을&amp;nbsp;묶어줘야&amp;nbsp;합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729579314110&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;arr = [n for n in range(1, 16) if n % 2 == 0 or n % 3 == 0]

print(arr)

[2, 3, 4, 6, 8, 9, 10, 12, 14, 15]&lt;/code&gt;&lt;/pre&gt;</description>
      <category>Python</category>
      <category>Python</category>
      <category>컴프리헨션</category>
      <category>파이썬</category>
      <category>프로그래밍</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/134</guid>
      <comments>https://minyoungxi.tistory.com/134#entry134comment</comments>
      <pubDate>Tue, 22 Oct 2024 15:43:07 +0900</pubDate>
    </item>
    <item>
      <title>[Pytorch 다시보기] - Pytorch Intro! 파이토치를 다시보자! 토치의 텐서에 대해서.</title>
      <link>https://minyoungxi.tistory.com/133</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;What is Pytorch and how does it differ from other deep learning frameworks like Tensorflow? - Pytorch와 Tensorflow는 무엇이 다를까?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1100&quot; data-origin-height=&quot;619&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cOdetS/btsJ808Wevu/LeNpmY0iEs7n3hoYxtj6jk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cOdetS/btsJ808Wevu/LeNpmY0iEs7n3hoYxtj6jk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cOdetS/btsJ808Wevu/LeNpmY0iEs7n3hoYxtj6jk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcOdetS%2FbtsJ808Wevu%2FLeNpmY0iEs7n3hoYxtj6jk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1100&quot; height=&quot;619&quot; data-origin-width=&quot;1100&quot; data-origin-height=&quot;619&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Pytorch는 페이스북 AI 연구소에서 만들어진 오픈소스 머신러닝 라이브러리 입니다. Pytorch는 &lt;b&gt;동적 계산 그래프(Dynamic Computation Graphs)&lt;/b&gt;의 강점을 기반으로 구축되었습니다. Pytorch의 기능과 편리한 Workflow 덕분에 연구원과 개발자 모두에게 인기가 높아졌습니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Dynamic Computation&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정적 계산 그래프를 활용하는 Tensorflow와 달리 Pytorch는 동적 계산 기능을 제공합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 통해 더 복잡한 아키텍처를 처리합니다. 또한 반복적이고 쉬운 Workflow를 사용할 수 있죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;게다가, Pytorch의 Pythonic한 구성 요소와 자연스럽게 결합되어 더 직관적인 개발 경험을 제공합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;747&quot; data-origin-height=&quot;498&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cfcw0K/btsJ7NXmKtQ/z9I0oVBHLa57xLKskgcwV0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cfcw0K/btsJ7NXmKtQ/z9I0oVBHLa57xLKskgcwV0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cfcw0K/btsJ7NXmKtQ/z9I0oVBHLa57xLKskgcwV0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcfcw0K%2FbtsJ7NXmKtQ%2Fz9I0oVBHLa57xLKskgcwV0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;747&quot; height=&quot;498&quot; data-origin-width=&quot;747&quot; data-origin-height=&quot;498&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이미 Hugging face 혹은 Github 만 보더라도 Tensorflow보다 Pytorch로 모델링한 코드가 훨씬 많습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Ease of Use&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Pytorch는 Python과 매우 비슷한 인터페이스를 가지고 있고, 이는 기존에 파이썬을 다룰 수 있던 사람들에게 매우 편리하게 느껴집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 GPU의 계산 능력을 활용하여 훈련 시간을 크게 단축하는 데 용이합니다. 그리고 원활한 다중 GPU 활용이 가능합니다. 그리고 Loop 및 조건문과 같은 Python 제어 구조를 통합하여 사용하기에 개발작 모델 동작을 정의하는 데 더 많은 유연성을 제공합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;&lt;span data-token-index=&quot;0&quot;&gt;Explain the concept of&amp;nbsp;&lt;/span&gt;&lt;span data-token-index=&quot;1&quot;&gt;Tensors&lt;/span&gt;&lt;span data-token-index=&quot;2&quot;&gt; in PyTorch&lt;/span&gt;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;PyTorch에서 텐서는 기본 구성 요소 역할을 하며 &lt;b&gt;CPU, GPU, TPU&lt;/b&gt;와 같은 다양한 기기에서 효율적인 수치 계산을 가능하게 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;개념적으로는 &lt;b&gt;numpy.arrays&lt;/b&gt;와 유사하지만 하드웨어 가속의 이점이 있고, 딥러닝과 과학적 컴퓨팅을 위한 다양한 고급 기능을 제공합니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;핵심 기능 - Core Features&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;자동 미분(Automatic Differentiation)&lt;/b&gt;: 텐서는 수행된 연산을 추적하여 신경망의 **경사 하강(Greadient Descent)**과 같은 작업에 대한 즉각적인 미분을 허용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;계산 그래프(Computational Graphs)&lt;/b&gt;: 텐서에 대한 연산은 계산 그래프를 구성하여 데이터 흐름과 관련 경사를 추적할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;장치 독립적(Device Agnosticism)&lt;/b&gt;: 텐서는 최적의 계산을 위해 사용 가능한 하드웨어 리소스 간에 유연하게 이동할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;유연한 메모리 관리(Flexible Memory Management)&lt;/b&gt;: PyTorch는 메모리를 동적으로 관리하고 텐서는 계산 그래프를 인식하여 가비지 수집을 보다 효율적으로 만듭니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Unique Tensors&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Float16, Float32, Float64:&lt;/b&gt; 텐서는 다양한 수치적 정밀도를 지원하며, 기본값은 32비트 부동 소수점입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;희소 텐서(Sparse Tensors):&lt;/b&gt; 이는 밀집 텐서와 매우 유사하지만 0이 많은 작업에 최적화되어 메모리와 계산을 모두 절약합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;양자화된 텐서(Quantized Tensors):&lt;/b&gt; 더 빠른 작업과 더 낮은 메모리 풋프린트(foot print)의 이점을 얻기 위해 정밀도를 낮춰야 하는 작업을 위해 특별히 설계되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;요소별 연산:&lt;/b&gt; PyTorch는 병렬 처리를 위해 설계되었으며 다양한 방식으로 적용할 수 있는 풍부한 요소별 연산 세트를 제공합니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;사용 예시&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Pytorch의 최신 버전에서는 자동 미분 기능이 탑재되어 있으며, 직접 텐서를 사용하는 것으로 변수 기능이 대체됩니다. requires_grad flag를 설정함으로써 어떤 텐서들이 기울기를 추적할지 지정할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;torch.tensor &amp;rarr; Pytorch의 Tensor를 생성합니다.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;torch.tensor(3., requires_grad=True) 는 3.0 값을 가지는 새로운 텐서를 생성합니다. r&lt;b&gt;equires_grad=True&lt;/b&gt; 는 이후에 x와 y에 대해 미분(Gradient)을 계산하고자 하기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;이 옵션이 설정되면, PyTorch는 해당 텐서와 관련된 모든 연산을 기록하고, &lt;b&gt;연산 그래프(Computational Graph)&lt;/b&gt;를 생성하여, 이후 backward() 호출 시&lt;b&gt; 기울기(Gradient)&lt;/b&gt;를 자동으로 계산합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;z.backward()는 z에 대한 &lt;b&gt;역전파(Backpropagation)&lt;/b&gt;를 수행합니다. 역전파는 목표 변수(z)로부터 출발하여, 그 값에 영향을 미친 모든 텐서(x, y)의 기울기를 계산하는 과정입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1729082515448&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import torch

# Define tensors
x = torch.tensor(3., requires_grad=True)
y = torch.tensor(4., requires_grad=True)
z = 2*x*y + 3

# Visualize the graph
z.backward()
print(x.grad)
print(y.grad)


tensor(8.)
tensor(6.)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Summary&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;requires_grad=True&lt;/b&gt; 옵션을 통해, Tensor가 계산 그래프에서 미분 대상이 됨을 설정합니다.&lt;/li&gt;
&lt;li&gt;연산(2*x*y + 3)이 이루어지면, PyTorch는 이 계산 과정을 그래프 형태로 기록합니다.&lt;/li&gt;
&lt;li&gt;z.backward()를 호출하면, 해당 결과 변수인 z에 대한 모든 연산 그래프를 통해 기울기를 계산하고, x.grad와 y.grad에 각 미분값을 저장합니다.&lt;/li&gt;
&lt;li&gt;이 기울기들은 이후 모델 학습 과정에서 &lt;b&gt;파라미터 업데이트&lt;/b&gt; 등에 사용될 수 있습니다.&lt;/li&gt;
&lt;/ul&gt;</description>
      <category>Data science/Pytorch Basic</category>
      <category>pytorch</category>
      <category>Torch</category>
      <category>파이토치</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/133</guid>
      <comments>https://minyoungxi.tistory.com/133#entry133comment</comments>
      <pubDate>Wed, 16 Oct 2024 21:47:30 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - Sound Analysis에 대해서 알아봅시다! ( 기침 소리를 4 class로 분류한 최초의 논문 ? )</title>
      <link>https://minyoungxi.tistory.com/132</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nAeCM/btsJ4KTBzpy/WXs0eRJtuC4Ai88Hx8EG71/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nAeCM/btsJ4KTBzpy/WXs0eRJtuC4Ai88Hx8EG71/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nAeCM/btsJ4KTBzpy/WXs0eRJtuC4Ai88Hx8EG71/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FnAeCM%2FbtsJ4KTBzpy%2FWXs0eRJtuC4Ai88Hx8EG71%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1580&quot; height=&quot;810&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Impact Factor : 1.7 Journal Impact Factor (2023)&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Citations : 7&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Sound analysis에 관련된 프로젝트를 처음으로 참여하게 되어서 관련된 논문을 찾아보던 중 가장 유사한 내용을 연구한 페이퍼를 찾게 되어서 소개드립니다. &lt;span style=&quot;letter-spacing: 0px;&quot;&gt;이 페이퍼는 기침 소리를 사용하여 여러 질병을 자동으로 진단하는 새로운 기계학습 모델인 &lt;/span&gt;&lt;b&gt;DKPNet41&lt;/b&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;에 대해 설명하고 있습니다.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;연구 목적 :&lt;/b&gt; Covid-19, 심부전, 급성 천식, 정상 상태를 포함하는 4가지 진단 카테고리에 대한 기침 소리 데이터를 수집하고, 이를 이용해 자동 진단 모델을 개발 및 검증.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;- &lt;b&gt;4-class cough detection&lt;/b&gt;&amp;nbsp;-&amp;gt;&amp;nbsp;Covid-19,&amp;nbsp;heart&amp;nbsp;failure,&amp;nbsp;acture&amp;nbsp;asthma,&amp;nbsp;healthy&amp;nbsp;(&amp;nbsp;코로나,&amp;nbsp;심부전,&amp;nbsp;급성&amp;nbsp;천식,&amp;nbsp;정상)&lt;br /&gt;&lt;br /&gt;- 이전 연구들의 한계점 언급 -&amp;gt; &lt;b&gt;기존 연구들과 달리 4가지 카테고리를 동시에 분류하는 다중 클래스 분류 수행&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;903&quot; data-origin-height=&quot;66&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/B154v/btsJ4d21R1L/IYxLA1LYDS3rk8dIjhlo51/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/B154v/btsJ4d21R1L/IYxLA1LYDS3rk8dIjhlo51/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/B154v/btsJ4d21R1L/IYxLA1LYDS3rk8dIjhlo51/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FB154v%2FbtsJ4d21R1L%2FIYxLA1LYDS3rk8dIjhlo51%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;903&quot; height=&quot;66&quot; data-origin-width=&quot;903&quot; data-origin-height=&quot;66&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Dataset&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;170&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/9QB5t/btsJ6EEq0de/TzzIx5Om8BweN0RNu1cUZk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/9QB5t/btsJ6EEq0de/TzzIx5Om8BweN0RNu1cUZk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/9QB5t/btsJ6EEq0de/TzzIx5Om8BweN0RNu1cUZk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F9QB5t%2FbtsJ6EEq0de%2FTzzIx5Om8BweN0RNu1cUZk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;646&quot; height=&quot;170&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;170&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터셋은 튀르키예 대학 병원에서 제공했다고 합니다. 그리고 본 연구에서는 &lt;a title=&quot;오픈 데이터셋&quot; href=&quot;http://web.firat.edu.tr/turkertuncer%20/acute_asthma_cough.rar&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;오픈 데이터셋&lt;/a&gt;을 사용했다고 언급하고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;타양한 포맷들(ogg, mpeg, mp4 ,m4a)로 이루어져 있고, 이후에 설명하지만 이 포맷들을 모델의&lt;b&gt; 강건한(robust) 분류 능력&lt;/b&gt;을 위해&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다양한 &lt;b&gt;오디오 포맷을 통일시키지 않고&lt;/b&gt; 그대로 사용합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;651&quot; data-origin-height=&quot;223&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/t8UlR/btsJ6FDmkpd/n8XoT5yuN190i63yxBuF0k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/t8UlR/btsJ6FDmkpd/n8XoT5yuN190i63yxBuF0k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/t8UlR/btsJ6FDmkpd/n8XoT5yuN190i63yxBuF0k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Ft8UlR%2FbtsJ6FDmkpd%2Fn8XoT5yuN190i63yxBuF0k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;651&quot; height=&quot;223&quot; data-origin-width=&quot;651&quot; data-origin-height=&quot;223&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;842명의 환자들에게서 2944개의 Sample들을 추출했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 연구에서는 &lt;b&gt;어떤 전처리 알고리즘도 사용하지 않았고, 기침 소리만 세그멘테이션&lt;/b&gt;하여 사용한다고 언급합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;&amp;ldquo;Furthermore, we have not used any preprocessing algorithm, only cough sounds have been segmented. In addition, few speech signals were deleted manually. These cough sounds were collected from definitively diagnosed patients.&amp;rdquo; (Kuluozturk 등, 2022, p. 3)&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;단,&amp;nbsp;일부&amp;nbsp;음성&amp;nbsp;신호가&amp;nbsp;섞인&amp;nbsp;경우&amp;nbsp;수동으로&amp;nbsp;삭제되었다고&amp;nbsp;언급합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;그리고&amp;nbsp;Covid-19&amp;nbsp;경우&amp;nbsp;의사들이&amp;nbsp;PCR&amp;nbsp;테스트&amp;nbsp;결과를&amp;nbsp;확인한&amp;nbsp;후에&amp;nbsp;기침&amp;nbsp;소리를&amp;nbsp;수집했다고&amp;nbsp;합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;데이터에&amp;nbsp;대한&amp;nbsp;설명을&amp;nbsp;보면&amp;nbsp;전반적으로&lt;b&gt;&amp;nbsp;최소한의&amp;nbsp;데이터&amp;nbsp;전처리를&amp;nbsp;수행&lt;/b&gt;했으며,&amp;nbsp;주로&amp;nbsp;&lt;b&gt;기침&amp;nbsp;소리의&amp;nbsp;세그멘테이션(Segmentation)&lt;/b&gt;에&amp;nbsp;초점을&amp;nbsp;맞추어&amp;nbsp;진행한&amp;nbsp;것을&amp;nbsp;알&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;이는&amp;nbsp;모델이&amp;nbsp;실제&amp;nbsp;환경에서의&amp;nbsp;적용&amp;nbsp;가능성을&amp;nbsp;높이기&amp;nbsp;위한&amp;nbsp;&lt;b&gt;일반화에&lt;/b&gt;&amp;nbsp;집중하겠다는&amp;nbsp;의도로&amp;nbsp;보여집니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Method&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;741&quot; data-origin-height=&quot;756&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bXjdgo/btsJ6rkQd8G/V99dptmjlth1saaFhiXnSK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bXjdgo/btsJ6rkQd8G/V99dptmjlth1saaFhiXnSK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bXjdgo/btsJ6rkQd8G/V99dptmjlth1saaFhiXnSK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbXjdgo%2FbtsJ6rkQd8G%2FV99dptmjlth1saaFhiXnSK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;741&quot; height=&quot;756&quot; data-origin-width=&quot;741&quot; data-origin-height=&quot;756&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본&amp;nbsp;연구의&amp;nbsp;제목처럼&lt;b&gt;&amp;nbsp;'DKPNet41'&amp;nbsp;&lt;/b&gt;모델의&amp;nbsp;방법론은&amp;nbsp;아래의&amp;nbsp;구조를&amp;nbsp;가집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Fig. 2는 DKPNet41 모델의 전체 아키텍처를 보여주는 도식입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 아키텍처는 다음과 같은 주요 단계로 구성되어 있습니다:&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;먼저, 기침 소리가 입력으로 들어옵니다. 이 기침 소리는 &lt;b&gt;세그먼트화된&lt;/b&gt; 형태로 사용됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모델은 원본 기침 소리와 분해된 소리로부터 특징을 추출합니다.&lt;b&gt; 특징 추출 단계에서는 DKP(Directed Knight Pattern)&lt;/b&gt; 방법이 사용됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;분해 과정(Decomposition)에서는 평균 풀링 방법을 사용하여 서브밴드를 얻고, 각 서브밴드에서 DKP 방법으로 특징을 추출합니다. 이 분해 과정은 10번 반복되며, 각 반복에서 4개의 특징 벡터가 생성됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음 단계에서는 모델이 생성된 &lt;b&gt;41개의 특징 벡터(원본 신호 1개 + 분해된 신호 40개)&lt;/b&gt; 중에서 가장 좋은 특징 벡터 10개를 선택하고 결합합니다. 마지막으로, 결합된 특징 벡터에서 가장 중요한 특징들을 선택하고, 이를 사용하여 '급성 천식', 'Covid-19', '심부전', '건강' 카테고리로 분류합니다. &lt;b&gt;이 아키텍처는 특징 추출, 특징 선택, 그리고 분류의 세 가지 주요 단계를 효과적으로 결합하여 높은 정확도와 효율성을 달성하도록 설계&lt;/b&gt;되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;650&quot; data-origin-height=&quot;164&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bmvZRu/btsJ4KTBNfy/iHxiAfqqE8EKbZAMV2uMzK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bmvZRu/btsJ4KTBNfy/iHxiAfqqE8EKbZAMV2uMzK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bmvZRu/btsJ4KTBNfy/iHxiAfqqE8EKbZAMV2uMzK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbmvZRu%2FbtsJ4KTBNfy%2FiHxiAfqqE8EKbZAMV2uMzK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;650&quot; height=&quot;164&quot; data-origin-width=&quot;650&quot; data-origin-height=&quot;164&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Step1.&amp;nbsp;Sub-bands&amp;nbsp;생성&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;평균,&amp;nbsp;최대,&amp;nbsp;최소,&amp;nbsp;조건부&amp;nbsp;풀링&amp;nbsp;함수를&amp;nbsp;사용하여&amp;nbsp;sub-bands&amp;nbsp;생성&amp;nbsp;&lt;br /&gt;-&amp;nbsp;size&amp;nbsp;2의&amp;nbsp;비중첩&amp;nbsp;윈도우(non-overlapping)를&amp;nbsp;사용하여&amp;nbsp;기침&amp;nbsp;소리&amp;nbsp;분해&lt;br /&gt;-&amp;nbsp;조건부&amp;nbsp;풀링은&amp;nbsp;입력&amp;nbsp;값의&amp;nbsp;부호에&amp;nbsp;따라&amp;nbsp;다른&amp;nbsp;통계&amp;nbsp;모멘트(최대,&amp;nbsp;최소,&amp;nbsp;평균)를&amp;nbsp;적용.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;631&quot; data-origin-height=&quot;187&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/OxYiN/btsJ6ihi78X/1eqYNDGJ0E6wLKjKMRajp0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/OxYiN/btsJ6ihi78X/1eqYNDGJ0E6wLKjKMRajp0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/OxYiN/btsJ6ihi78X/1eqYNDGJ0E6wLKjKMRajp0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FOxYiN%2FbtsJ6ihi78X%2F1eqYNDGJ0E6wLKjKMRajp0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;631&quot; height=&quot;187&quot; data-origin-width=&quot;631&quot; data-origin-height=&quot;187&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Step2.&amp;nbsp;DKP를&amp;nbsp;사용한&amp;nbsp;특징&amp;nbsp;추출&amp;nbsp;&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;각&amp;nbsp;서브밴드와&amp;nbsp;원본&amp;nbsp;기침&amp;nbsp;소리에서&amp;nbsp;1,536개의&amp;nbsp;특징을&amp;nbsp;추출.&lt;br /&gt;-&amp;nbsp;1차원&amp;nbsp;입력&amp;nbsp;신호를&amp;nbsp;9개의&amp;nbsp;중첩&amp;nbsp;블록으로&amp;nbsp;나눔.&amp;nbsp;(*One-dimensional&amp;nbsp;signal&amp;nbsp;input&amp;nbsp;is&amp;nbsp;divided&amp;nbsp;into&amp;nbsp;nine&amp;nbsp;overlapping&amp;nbsp;blocks.*)&lt;br /&gt;-&amp;nbsp;9개&amp;nbsp;크기의&amp;nbsp;중첩&amp;nbsp;블록을&amp;nbsp;3x3&amp;nbsp;크기의&amp;nbsp;행렬로&amp;nbsp;변환&amp;nbsp;&lt;br /&gt;-&amp;nbsp;생성된&amp;nbsp;3x3&amp;nbsp;행렬에&amp;nbsp;DKP를&amp;nbsp;적용.&lt;br /&gt;- &lt;b&gt;DKP는 체스의 나이트 이동 패턴을 기반으로 한 두 가지 유형의 방향성 그래프 패턴 사용&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1087&quot; data-origin-height=&quot;620&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b2I0wi/btsJ4jaXTFk/mCpk8T03REuKGhIck601i1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b2I0wi/btsJ4jaXTFk/mCpk8T03REuKGhIck601i1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b2I0wi/btsJ4jaXTFk/mCpk8T03REuKGhIck601i1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb2I0wi%2FbtsJ4jaXTFk%2FmCpk8T03REuKGhIck601i1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;638&quot; height=&quot;364&quot; data-origin-width=&quot;1087&quot; data-origin-height=&quot;620&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;nbsp;DKP&amp;nbsp;패턴과&amp;nbsp;directed&amp;nbsp;커널을&amp;nbsp;사용하여&amp;nbsp;비트를&amp;nbsp;생성.&lt;br /&gt;-&amp;nbsp;Directed&amp;nbsp;signum,&amp;nbsp;upper&amp;nbsp;temary,&amp;nbsp;lower&amp;nbsp;ternary&amp;nbsp;함수를&amp;nbsp;사용.&lt;br /&gt;-&amp;nbsp;생성된&amp;nbsp;비트를&amp;nbsp;이진-십진수&amp;nbsp;변환하여&amp;nbsp;6개의&amp;nbsp;맵&amp;nbsp;신호를&amp;nbsp;생성.&lt;br /&gt;-&amp;nbsp;생성된&amp;nbsp;6개&amp;nbsp;맵&amp;nbsp;신호의&amp;nbsp;히스토그램을&amp;nbsp;추출&amp;nbsp;&lt;br /&gt;-&amp;nbsp;&lt;b&gt;추출된&amp;nbsp;6개&amp;nbsp;히스토그램&amp;nbsp;병합&amp;nbsp;후&amp;nbsp;1536(256x6)&amp;nbsp;크기의&amp;nbsp;특징&amp;nbsp;벡터를&amp;nbsp;생성&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;&lt;b&gt;41개&amp;nbsp;특징&amp;nbsp;벡터(40개&amp;nbsp;sub&amp;nbsp;bands&amp;nbsp;+&amp;nbsp;1&amp;nbsp;원본&amp;nbsp;신호)&lt;/b&gt;의&amp;nbsp;정확도를&amp;nbsp;계산&amp;nbsp;&lt;br /&gt;-&amp;nbsp;KNN&amp;nbsp;분류기와&amp;nbsp;5-fold&amp;nbsp;교차&amp;nbsp;검증&amp;nbsp;사용&amp;nbsp;&lt;br /&gt;-&amp;nbsp;상위&amp;nbsp;특징&amp;nbsp;벡터&amp;nbsp;(계산된&amp;nbsp;정확도를&amp;nbsp;기반으로&amp;nbsp;상위&amp;nbsp;10개&amp;nbsp;특징&amp;nbsp;벡터&amp;nbsp;선택&amp;nbsp;)&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;644&quot; data-origin-height=&quot;196&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cptZjb/btsJ3XTxkH5/yGFqhUnmFK4qvBOTO3llmK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cptZjb/btsJ3XTxkH5/yGFqhUnmFK4qvBOTO3llmK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cptZjb/btsJ3XTxkH5/yGFqhUnmFK4qvBOTO3llmK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcptZjb%2FbtsJ3XTxkH5%2FyGFqhUnmFK4qvBOTO3llmK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;644&quot; height=&quot;196&quot; data-origin-width=&quot;644&quot; data-origin-height=&quot;196&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;INCA(Iterative&amp;nbsp;Neighborhood&amp;nbsp;Component&amp;nbsp;Analysis)&amp;nbsp;&lt;/b&gt;선택기의&amp;nbsp;파라미터.&lt;br /&gt;-&amp;nbsp;kNN&amp;nbsp;-&amp;gt;&amp;nbsp;k=1&amp;nbsp;,&amp;nbsp;맨해튼&amp;nbsp;측정법,&amp;nbsp;voting&amp;nbsp;방식&amp;nbsp;none,&amp;nbsp;표준화&amp;nbsp;:&amp;nbsp;True&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;655&quot; data-origin-height=&quot;483&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cWSAfR/btsJ4XysxYN/DPxAa1bKiUz5CRBlCCC6qk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cWSAfR/btsJ4XysxYN/DPxAa1bKiUz5CRBlCCC6qk/img.png&quot; data-alt=&quot;모델의 전체 및 각 진단 카테고리별 성능 지표&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cWSAfR/btsJ4XysxYN/DPxAa1bKiUz5CRBlCCC6qk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcWSAfR%2FbtsJ4XysxYN%2FDPxAa1bKiUz5CRBlCCC6qk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;655&quot; height=&quot;483&quot; data-origin-width=&quot;655&quot; data-origin-height=&quot;483&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;모델의 전체 및 각 진단 카테고리별 성능 지표&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;559&quot; data-origin-height=&quot;531&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bjAZ8a/btsJ4JAsEZD/rEOJ5Bmk8PCwAfkORrtbaK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bjAZ8a/btsJ4JAsEZD/rEOJ5Bmk8PCwAfkORrtbaK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bjAZ8a/btsJ4JAsEZD/rEOJ5Bmk8PCwAfkORrtbaK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbjAZ8a%2FbtsJ4JAsEZD%2FrEOJ5Bmk8PCwAfkORrtbaK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;559&quot; height=&quot;531&quot; data-origin-width=&quot;559&quot; data-origin-height=&quot;531&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Insight + Contribution&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존 연구들은 주로 이진 분류에 초점을 맞춘 반면 , 해당 연구는 4-class를 동시 분류하는 다중 클래스 문제를 해결했습니다.&lt;br /&gt;&lt;br /&gt;DKPNet41 모델은 99.39%의 높은 정확도를 달성했습니다. ( 기존의 다중 클래스 분류 연구인 Pal and Sankarasubbu의 90.80%, Knocikova et al.의 90%)보다 우수한 성능이죠.&lt;br /&gt;&lt;br /&gt;또한 해당 모델은 낮은 계산 복잡도를 가지고 있으며 이는 실제 임상 환경에서의 실용성을 높일 수 있는 중요한 요소라고 생각합니다.&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;10-fold&amp;nbsp;교차&amp;nbsp;검증뿐만&amp;nbsp;아니라&amp;nbsp;다양한&amp;nbsp;분할&amp;nbsp;비율(90:10에서&amp;nbsp;50:50까지)의&amp;nbsp;홀드아웃&amp;nbsp;검증에서도&amp;nbsp;일관되게&amp;nbsp;높은&amp;nbsp;성능을&amp;nbsp;보였음.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;향후 응용 가능성:&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;인공지능&amp;nbsp;기반의&amp;nbsp;기침&amp;nbsp;소리&amp;nbsp;진단을&amp;nbsp;위한&amp;nbsp;새로운&amp;nbsp;지능형&amp;nbsp;칩&amp;nbsp;진단&amp;nbsp;모델과&amp;nbsp;애플리케이션&amp;nbsp;개발이&amp;nbsp;가능할&amp;nbsp;것.&lt;br /&gt;-&amp;nbsp;폐의학&amp;nbsp;및&amp;nbsp;심장학&amp;nbsp;클리닉에서&amp;nbsp;실제로&amp;nbsp;구현&amp;nbsp;가능한&amp;nbsp;수준의&amp;nbsp;성능을&amp;nbsp;보여줌.&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <category>medicalai</category>
      <category>sound analysis</category>
      <category>기침소리</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <category>머신러닝</category>
      <category>사운드 ai</category>
      <category>음성분석</category>
      <category>의료인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/132</guid>
      <comments>https://minyoungxi.tistory.com/132#entry132comment</comments>
      <pubDate>Mon, 14 Oct 2024 23:44:32 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - All models are wrong and yours are useless: making clinical prediction models impactful for patients - 의료 인공지능 연구자들의 필수 아티클</title>
      <link>https://minyoungxi.tistory.com/131</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1267&quot; data-origin-height=&quot;826&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dxz3nK/btsJoRrPQ0l/B1k0ubLv9shkTKYdjEBii1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dxz3nK/btsJoRrPQ0l/B1k0ubLv9shkTKYdjEBii1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dxz3nK/btsJoRrPQ0l/B1k0ubLv9shkTKYdjEBii1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fdxz3nK%2FbtsJoRrPQ0l%2FB1k0ubLv9shkTKYdjEBii1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;632&quot; height=&quot;412&quot; data-origin-width=&quot;1267&quot; data-origin-height=&quot;826&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Preview&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본&amp;nbsp;논문은&amp;nbsp;의료&amp;nbsp;분야에서&amp;nbsp;출간되는&amp;nbsp;여러&amp;nbsp;논문들에&amp;nbsp;대해&amp;nbsp;신랄하게&amp;nbsp;비판하고&amp;nbsp;있습니다.&amp;nbsp;요즘에는&amp;nbsp;좋은&amp;nbsp;저널에&amp;nbsp;실린&amp;nbsp;훌륭한&amp;nbsp;AI&amp;nbsp;기반&amp;nbsp;예측&amp;nbsp;모델들이&amp;nbsp;굉장히&amp;nbsp;많은데요,&amp;nbsp;이&amp;nbsp;연구들은&amp;nbsp;실제&amp;nbsp;임상에서&amp;nbsp;거의&amp;nbsp;사용되지&amp;nbsp;않습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;npj에&amp;nbsp;실린&amp;nbsp;이&amp;nbsp;아티클은&amp;nbsp;여러&amp;nbsp;논문에&amp;nbsp;실린&amp;nbsp;모델들이&amp;nbsp;왜&amp;nbsp;&lt;b&gt;쓸모없는지(useless)&lt;/b&gt;에&amp;nbsp;대해&amp;nbsp;굉장히&amp;nbsp;현실적인&amp;nbsp;인사이트를&amp;nbsp;담고&amp;nbsp;있습니다.&amp;nbsp;저자는&amp;nbsp;캠브리지&amp;nbsp;대학의&amp;nbsp;연구자로&amp;nbsp;지난&amp;nbsp;20년간&amp;nbsp;의료&amp;nbsp;예측&amp;nbsp;모델을&amp;nbsp;개발하고&amp;nbsp;이를&amp;nbsp;사업화하는&amp;nbsp;과정에서&amp;nbsp;얻은&amp;nbsp;깨달음을&amp;nbsp;본&amp;nbsp;아티클을&amp;nbsp;통해&amp;nbsp;여러&amp;nbsp;연구자들에게&amp;nbsp;전하는&amp;nbsp;것&amp;nbsp;같습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;저자는&amp;nbsp;지난&amp;nbsp;20년간&amp;nbsp;본인의&amp;nbsp;연구를&amp;nbsp;임상&amp;nbsp;현장에서&amp;nbsp;사용될&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;만들기&amp;nbsp;위한&amp;nbsp;과정에서&amp;nbsp;아래와&amp;nbsp;같은&amp;nbsp;'Observation'들을&amp;nbsp;얻었다고&amp;nbsp;언급합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Interesting Points&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아티클은 약 세 장 분량으로 매우 짧은 페이퍼입니다. 하지만 짧은 페이퍼안에 매우 신랄한 비판들이 실려있습니다. 첫 문단에 나와있는 내용을 보면 연구자들에게 던지는 메세지가 인상적입니다. &lt;i&gt;'I think your model is uselss'&amp;nbsp;&lt;/i&gt;라며 꽤나 직접적으로 연구자들을 디스(?) 하고 있습니다. 의료 도메인의 논문들에서 자주 발견되는 단어들에 대해서도 꼬집는데요.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&quot;might&quot;, &quot;could&quot;, &quot;potential&quot; 과 같은 책임을 회피하는 듯한 단어들을 사용한다고 비판하고 있죠.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;603&quot; data-origin-height=&quot;121&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/YFqIW/btsJnYE1wjw/rK4MYLhRWLhw9Ud6tN10g1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/YFqIW/btsJnYE1wjw/rK4MYLhRWLhw9Ud6tN10g1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/YFqIW/btsJnYE1wjw/rK4MYLhRWLhw9Ud6tN10g1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYFqIW%2FbtsJnYE1wjw%2FrK4MYLhRWLhw9Ud6tN10g1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;603&quot; height=&quot;121&quot; data-origin-width=&quot;603&quot; data-origin-height=&quot;121&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;603&quot; data-origin-height=&quot;121&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ejG20h/btsJnJnOzkr/1hm8wssmrWXNjjNRck5kik/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ejG20h/btsJnJnOzkr/1hm8wssmrWXNjjNRck5kik/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ejG20h/btsJnJnOzkr/1hm8wssmrWXNjjNRck5kik/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FejG20h%2FbtsJnJnOzkr%2F1hm8wssmrWXNjjNRck5kik%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;603&quot; height=&quot;121&quot; data-origin-width=&quot;603&quot; data-origin-height=&quot;121&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자는 아래의 논문을 출판한 경험을 언급합니다. 해당 논문은 대장암(colon caner)을 새로운 아형으로 분류하는 방법을 제안하며 이 아형들에 대한 조직병리학적 마커(Histopathology markers)를 설계했다고 합니다. 이 아형들을 쉽고 유용하게 만들기 위한 노력이 많이 들어간 논문이었지만, 실제로 연구에서 발견한 분류 체계들 중 환자들에게 도움이 될 만한 요소는 없었다고 합니다. 또한 해당 연구 뿐만 아니라 저자의 연구실에서 진행하는 유방암(Breast Cancer)과 췌장암(Pancreatic Cancer)의 아형들 또한 임상에서 널리 사용되지 않는다고 합니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/23584090/&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://pubmed.ncbi.nlm.nih.gov/23584090/&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1725331122233&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;Poor-prognosis colon cancer is defined by a molecularly distinct subtype and develops from serrated precursor lesions - PubMed&quot; data-og-description=&quot;Colon cancer is a clinically diverse disease. This heterogeneity makes it difficult to determine which patients will benefit most from adjuvant therapy and impedes the development of new targeted agents. More insight into the biological diversity of colon &quot; data-og-host=&quot;pubmed.ncbi.nlm.nih.gov&quot; data-og-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/23584090/&quot; data-og-url=&quot;https://pubmed.ncbi.nlm.nih.gov/23584090/&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/mVjqu/hyWV0CCNHu/vX2HW04NTExkY0SaACt3sK/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/bSrFIw/hyWZmcWVsQ/N8rK8pswqd2Q5H8LqgVwd1/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414&quot;&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/23584090/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/23584090/&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/mVjqu/hyWV0CCNHu/vX2HW04NTExkY0SaACt3sK/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/bSrFIw/hyWZmcWVsQ/N8rK8pswqd2Q5H8LqgVwd1/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;Poor-prognosis colon cancer is defined by a molecularly distinct subtype and develops from serrated precursor lesions - PubMed&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;Colon cancer is a clinically diverse disease. This heterogeneity makes it difficult to determine which patients will benefit most from adjuvant therapy and impedes the development of new targeted agents. More insight into the biological diversity of colon&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;pubmed.ncbi.nlm.nih.gov&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;학계의 기준으로 봤을 때 저자의 논문은 매우 성공적인 연구입니다. 해당 분야에서 크게 인정받았고 인용(citation)수도 많았죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그럼에도 불구하고 저자는 뭔가 놓친 듯한 느낌이 들었다고 합니다. ( Still, it feels to me like there is something missing )&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자는 학술 논문을 논문 자체의 목적이 아닌 임상 적용을 향한 여정의 시작으로 보게 되었다고 합니다. 그리고 본인의 연구 중 임상적 영향이 매우 적다는 것에 대해서 좌절감을 느꼈습니다. 저자는 지난 20년간 깨달은 바에 대해서 다음과 같이 설명합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;596&quot; data-origin-height=&quot;346&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/9Jott/btsJnuK7Lmb/rApziF4cHOlC7WHmn4aTh0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/9Jott/btsJnuK7Lmb/rApziF4cHOlC7WHmn4aTh0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/9Jott/btsJnuK7Lmb/rApziF4cHOlC7WHmn4aTh0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F9Jott%2FbtsJnuK7Lmb%2FrApziF4cHOlC7WHmn4aTh0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;596&quot; height=&quot;346&quot; data-origin-width=&quot;596&quot; data-origin-height=&quot;346&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;관찰1. 학계에서의 성공이 임상에서의 성공과 동일하지 않다.&amp;nbsp;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;학계에서의 성공은 &lt;b&gt;논문, 연구비, 영향력 지수, 인용 횟수&lt;/b&gt;로 측정됩니다. 반면, 당신의 모델이 임상에서 성공했는지는 다르게 측정됩니다. 얼마나 많은 병원에서 자주 사용되는지 , 궁극적으로 환자들에게 어떤 도움이 되는지와 같은 것들이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자는 학술적인 연구가 왜 임상에서 성공적이지 못하는지에 대해서 설명합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;학술적인 성과를 실제로 구현(implement)할 동기가 없기 때문이라고 하죠. 학계의 커리어에서는 구현(implement)보다 참신성에 우선을 둡니다. 왜냐하면 이미 확립된 모델을 구현하기 위해 병원 소프트웨어 시스템의 세부 사항을 탐색하는 것보다, 또 다른 모델을 발표하는 것(아무리 쓸모없다 하더라도)이 당신의 경력에 더 도움이 되기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;596&quot; data-origin-height=&quot;346&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cThqPA/btsJnZYcp4u/IL0IbUWECiEhwv4ncCUeq1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cThqPA/btsJnZYcp4u/IL0IbUWECiEhwv4ncCUeq1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cThqPA/btsJnZYcp4u/IL0IbUWECiEhwv4ncCUeq1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcThqPA%2FbtsJnZYcp4u%2FIL0IbUWECiEhwv4ncCUeq1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;596&quot; height=&quot;346&quot; data-origin-width=&quot;596&quot; data-origin-height=&quot;346&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;관찰 2: 성공적인 모델들은 일상적인 진료에서 이용 가능한 데이터를 사용한다.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;TCGA7&lt;/b&gt;와 같은 대규모 학술 컬렉션은 마치 DNA, RNA, 메틸화, 영상, 단백체학 데이터를 통합하는 것이 이미 일반적인 관행인 것처럼 보이게 합니다.&amp;nbsp; 하지만 실제 임상 현실에서 사용할 수 있는 유일한 데이터는 H&amp;amp;E 슬라이드와 일부 DNA 정보 정도일 것입니다(그나마도 같은 환자의 것이기를 바랄 뿐입니다).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결과적으로, 중요한 진전이 무엇인지에 대한 &lt;b&gt;학계의 시각(더 많은 공간 정보! 더 많은 멀티오믹스!)&lt;/b&gt;은 임상 현실과 맞지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 관찰은 특히 유전자 발현 데이터와 관련하여 중요합니다. 유전자 발현 데이터는 학계에서는 흔히 사용되지만7-9, 임상에서는 OncotypeDx, MammaPrint, ProSigna와 같이 유방암에 대한 임상 결정을 개선하는 소수의 성공 사례만을 만들어냈습니다. 이는 20년 전에 획기적인 돌파구로 찬사받았던 분야10에 비해 실망스러운 결과입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;590&quot; data-origin-height=&quot;254&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b9lhFG/btsJnXMO1kU/mgUZ6KhFDUgv6MSQJEnQ30/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b9lhFG/btsJnXMO1kU/mgUZ6KhFDUgv6MSQJEnQ30/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b9lhFG/btsJnXMO1kU/mgUZ6KhFDUgv6MSQJEnQ30/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb9lhFG%2FbtsJnXMO1kU%2FmgUZ6KhFDUgv6MSQJEnQ30%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;590&quot; height=&quot;254&quot; data-origin-width=&quot;590&quot; data-origin-height=&quot;254&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;관찰 3: 성공적인 모델들은 구체적인 행동과 연결되어 있다.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자가 앞서 설명한 암 아형 분류 연구들이 본인이 희망했던 만큼의 영향력을 갖지 못한 이유는, 그것들이 명확한 행동 지침과 연결되지 않은 채 단순히 생존율의 차이만을 보여주기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일부 환자들의 예후가 더 좋고 다른 이들의 예후가 더 나쁘다는 것을 알면 뭐가 달라질까요? 마찬가지로, 유방암 아형을 위한 원래의 PAM50 분류기10는 어떤 구체적인 행동과도 연결되지 않아 쓸모없었습니다. 이는 &lt;i&gt;ProSigna 검사가 이를 수정하여 고위험 환자들에게 보조 화학요법을 추천하는 예후 점수로 만들기 전까지의 이야기입니다.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;582&quot; data-origin-height=&quot;176&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/blwquf/btsJoQGuJH3/BcFtlhLfcueWq7COGR6Rc0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/blwquf/btsJoQGuJH3/BcFtlhLfcueWq7COGR6Rc0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/blwquf/btsJoQGuJH3/BcFtlhLfcueWq7COGR6Rc0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fblwquf%2FbtsJoQGuJH3%2FBcFtlhLfcueWq7COGR6Rc0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;582&quot; height=&quot;176&quot; data-origin-width=&quot;582&quot; data-origin-height=&quot;176&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;관찰 4: 성공적인 모델들은 최고 수준의 센터 외부에서도 구현된다.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;만약 당신이 영향력을 갖고 싶다면, 당신의 도구는 케임브리지, 스탠포드, 취리히와 같은 최고 수준의 기관 외부에서도 사용되어야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;당신의 소속 기관에 있는 연구에 능통한 임상의와 협력하는 것은 필요하지만, 진정한 영향력을 위해서는 당신의 학술적 편안함을 벗어나 다른 곳의 의사들이 당신의 도구를 유용하다고 생각하는지, 그리고 그것이 다양한 임상 경로와 의사 결정 절차에 얼마나 잘 맞는지 알아내야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 관찰은&lt;b&gt; 의료 기술의 폭넓은 적용과 실제 임상 환경에서의 유용성에 대해 중요한 점을 지적&lt;/b&gt;하고 있습니다. 최고 수준의 연구 기관에서 개발된 모델이 실제 일반적인 의료 환경에서도 효과적으로 작동하는지 확인하는 것이 중요함을 강조하고 있죠. 이는 의료 기술의 실질적인 영향력과 확산을 위해 필수적인 단계라고 볼 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;599&quot; data-origin-height=&quot;249&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/WDeD1/btsJotdCV3f/vMmoFZkuYc3BZXGbmj7eD0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/WDeD1/btsJotdCV3f/vMmoFZkuYc3BZXGbmj7eD0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/WDeD1/btsJotdCV3f/vMmoFZkuYc3BZXGbmj7eD0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FWDeD1%2FbtsJotdCV3f%2FvMmoFZkuYc3BZXGbmj7eD0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;599&quot; height=&quot;249&quot; data-origin-width=&quot;599&quot; data-origin-height=&quot;249&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;관찰 5: 임상에서의 성공은 어렵게 얻어진다.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;병원은 환자들에 대한 책임의 일환으로 혁신을 수용할 의무가 있습니다. 하지만 병원은 보수적이고 엄격하게 규제되는 환경입니다. 여기서는 기존 관행의 모든 변화가 환자에게 미칠 수 있는 잠재적 해악과 상쇄되어야 합니다. 게다가 의료 시스템은 자금이 부족하고 의사들은 과로에 시달리고 있다는 사실을 고려하면, 왜 당신이 새로운 접근 방식의 유용성에 대한 상당한 증거를 제시해야 하는지 이해할 수 있을 것입니다. 이는 병원이 당신의 학술적 통찰을 고려하기 시작하기 전에 필요한 과정입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 관찰은 학술 연구 결과를 실제 임상 현장에 적용하는 과정의 어려움을 잘 보여줍니다. 의료 환경의 특성상 새로운 기술이나 방법을 도입하는 데에는 많은 증거와 노력이 필요하며, 이는 연구자들에게 추가적인 부담이 될 수 있음을 지적하고 있습니다. 그럼에도 불구하고, 이러한 과정은 환자 안전과 의료 품질 향상을 위해 필요한 단계임을 이해하는 것이 중요합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/UUCf4/btsJoBvNiXD/0xFinL87dzmKZYrRMfmKf1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/UUCf4/btsJoBvNiXD/0xFinL87dzmKZYrRMfmKf1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/UUCf4/btsJoBvNiXD/0xFinL87dzmKZYrRMfmKf1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FUUCf4%2FbtsJoBvNiXD%2F0xFinL87dzmKZYrRMfmKf1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;593&quot; height=&quot;295&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cuHTnb/btsJnqosHWl/1Yake3LXOsxcjQpUJfMqH1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cuHTnb/btsJnqosHWl/1Yake3LXOsxcjQpUJfMqH1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cuHTnb/btsJnqosHWl/1Yake3LXOsxcjQpUJfMqH1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcuHTnb%2FbtsJnqosHWl%2F1Yake3LXOsxcjQpUJfMqH1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;593&quot; height=&quot;295&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구 결과의 임상 적용에 대한 현실적인 접근 방식을 제시하고 있습니다. 단순히 시간이 지나면 임상에 적용될 것이라는 수동적인 태도보다는, &lt;b&gt;구체적인 계획과 로드맵&lt;/b&gt;을 가지고 능동적으로 임상 적용을 추진해야 한다는 점을 강조하고 있습니다. 또한, 규제 과정의 중요성과 이를 조기에 고려해야 한다는 점도 중요하게 다루고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c5VrBk/btsJppVHZnQ/Z2bRKOivmsPWUEe2yE02kK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c5VrBk/btsJppVHZnQ/Z2bRKOivmsPWUEe2yE02kK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c5VrBk/btsJppVHZnQ/Z2bRKOivmsPWUEe2yE02kK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc5VrBk%2FbtsJppVHZnQ%2FZ2bRKOivmsPWUEe2yE02kK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;593&quot; height=&quot;295&quot; data-origin-width=&quot;593&quot; data-origin-height=&quot;295&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;바렛식도(Barrett oesophagus)&lt;/b&gt;를 감지하기 위한 내시경의 최소 침습적 대안인 Cytosponge로 촬영한 이미지를 분석하는 AI 모델에 대한 우리의 연구는 저자의 박사 학생 중 한 명이 설립한 &lt;b&gt;Cyted&lt;/b&gt;라는 회사의 기반이 되었습니다(&lt;a href=&quot;http://www.cyted.ai&quot;&gt;www.cyted.ai&lt;/a&gt;).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 다양한 유형의 염색체 불안정성을 측정하는 저자의 연구는 범암 정밀 플랫폼을 가진 유전체학 스타트업인&lt;b&gt; Tailor Bio&lt;/b&gt;의 설립으로 이어졌습니다(&lt;a href=&quot;http://www.tailor.bio&quot;&gt;www.tailor.bio&lt;/a&gt;).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 회사들이 정말로 저자의 연구실에서 진행된 학술 연구를 광범위하게 일상적인 진료에 적용할 수 있을지는 시간이 지나면 알 수 있을 것입니다. 하지만 저자는 적어도 그들이 그곳에 도달하기 위한 구체적이고 실용적인 계획을 가지고 있다고 확신합니다. 그러한 계획이 없었다면 그들은 결코 자금을 조달받지 못했을 것이기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1144&quot; data-origin-height=&quot;313&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bSoV2D/btsJpKyyi7t/i5nmPVq5Wc0tLz12xjSmzk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bSoV2D/btsJpKyyi7t/i5nmPVq5Wc0tLz12xjSmzk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bSoV2D/btsJpKyyi7t/i5nmPVq5Wc0tLz12xjSmzk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbSoV2D%2FbtsJpKyyi7t%2Fi5nmPVq5Wc0tLz12xjSmzk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1144&quot; height=&quot;313&quot; data-origin-width=&quot;1144&quot; data-origin-height=&quot;313&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의&amp;nbsp;내용은&amp;nbsp;본&amp;nbsp;아티클에서&amp;nbsp;언급한&amp;nbsp;임상&amp;nbsp;예측&amp;nbsp;모델을&amp;nbsp;개발할&amp;nbsp;때&amp;nbsp;고려야할&amp;nbsp;중요한&amp;nbsp;사항들입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;nbsp;명확한&amp;nbsp;임상&amp;nbsp;결정&amp;nbsp;지점을&amp;nbsp;다루고&amp;nbsp;있습니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;당신의&amp;nbsp;도구가&amp;nbsp;그&amp;nbsp;의사결정에&amp;nbsp;도움이&amp;nbsp;되는&amp;nbsp;매개변수를&amp;nbsp;출력합니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;명확한&amp;nbsp;임상&amp;nbsp;결정&amp;nbsp;지점을&amp;nbsp;다루고&amp;nbsp;있습니까?&amp;nbsp;확실합니까?&amp;nbsp;해당&amp;nbsp;분야의&amp;nbsp;전문가인&amp;nbsp;임상&amp;nbsp;협력자와&amp;nbsp;상의해&amp;nbsp;보는&amp;nbsp;것이&amp;nbsp;좋습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;입력&amp;nbsp;매개변수들이&amp;nbsp;일반적인&amp;nbsp;임상&amp;nbsp;진료에서&amp;nbsp;사용되고&amp;nbsp;있습니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;명확한&amp;nbsp;임상&amp;nbsp;결정&amp;nbsp;지점을&amp;nbsp;다루고&amp;nbsp;있습니까?&amp;nbsp;정말로,&amp;nbsp;정말로&amp;nbsp;확실합니까?&amp;nbsp;다양한&amp;nbsp;전문가와&amp;nbsp;이해관계자&amp;nbsp;그룹으로부터&amp;nbsp;조언을&amp;nbsp;구하는&amp;nbsp;것이&amp;nbsp;좋습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;인터페이스가&amp;nbsp;입력과&amp;nbsp;출력&amp;nbsp;모두에서&amp;nbsp;사용하기&amp;nbsp;쉽습니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;당신의&amp;nbsp;모델이&amp;nbsp;현재의&amp;nbsp;임상&amp;nbsp;판단에&amp;nbsp;어떤&amp;nbsp;가치를&amp;nbsp;더합니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;당신의&amp;nbsp;도구가&amp;nbsp;기존&amp;nbsp;도구들보다&amp;nbsp;더&amp;nbsp;나은&amp;nbsp;점이&amp;nbsp;있습니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;- 당신의 구현 계획은 무엇입니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp; a. 의사들이 실제로 이 도구를 사용하기 위해 무엇이 필요합니까?&amp;nbsp;&lt;br /&gt;&amp;nbsp; b. 의료기기 규제를 통과하기 위한 경로는 무엇입니까?&lt;br /&gt;&amp;nbsp; c. 의료 환경이 이를 받아들일 준비가 되어 있습니까?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Review&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 아티클은 학술적인 연구에서 개발된 모델이 임상적으로 유용성을 가지기 어렵다는 점을 강조하고 있습니다. 저역시 의료 인공지능을 연구하는 연구자로서 '연구'라는 것에 대해서 진지하게 다시 고민해볼 수 있는 아티클이었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;연구자들&amp;nbsp;뿐만&amp;nbsp;아니라&amp;nbsp;대학교,&amp;nbsp;임상가,&amp;nbsp;벤처&amp;nbsp;투자자&amp;nbsp;등&amp;nbsp;관련&amp;nbsp;업계&amp;nbsp;분들이&amp;nbsp;반드시&amp;nbsp;읽어봐야&amp;nbsp;하는&amp;nbsp;가이드북이&amp;nbsp;아닐까&amp;nbsp;싶습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;특히 학계에서 연구를 평가하는 지표인 IF(Impact Factor), Citation, Funding 등을 직접적으로 비판하는 것은 매우 인상깊었습니다. 저자도 같은 연구자이기에 이 분야에서 인정받은 사람이 기존의 관행에 정면으로 부딪히는 일은 매우 어려운 일이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구 선배가 해주는 조언같은 아티클이었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <category>AI</category>
      <category>Medical</category>
      <category>Medical AI</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <category>메디컬인공지능</category>
      <category>병원</category>
      <category>의료인공지능</category>
      <category>임상</category>
      <category>헬스케어</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/131</guid>
      <comments>https://minyoungxi.tistory.com/131#entry131comment</comments>
      <pubDate>Tue, 3 Sep 2024 12:01:53 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] Changes in Cytomegalovirus Seroprevalence in Korea for 21 Years a Single Center Study - 우리는 사실 모두 CMV 감염자였다?</title>
      <link>https://minyoungxi.tistory.com/130</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Terms&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서 CMV IgG 검사에 대한 내용이 주로 언급되므로 CMV 검사와 CMV IgG 혈청 검사의 차이점에 대해서 먼저 알아봐야합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;CMV&amp;nbsp;검사는&amp;nbsp;일반적으로&amp;nbsp;활동성&amp;nbsp;&lt;b&gt;CMV&amp;nbsp;감염을&amp;nbsp;진단&lt;/b&gt;하기 위한 검사를 의미합니다. 주로 바이러스 자체를 검출하는 방법을 사용합니다(PCR과 같은 방법). CMV&amp;nbsp;IgG&amp;nbsp;검사는&amp;nbsp;과거에&amp;nbsp;CMV에&amp;nbsp;노출되었는지&amp;nbsp;확인하는&amp;nbsp;항체&amp;nbsp;검사입니다.&lt;b&gt;&amp;nbsp;CMV에&amp;nbsp;대한&amp;nbsp;면역글로불린(IgG)&amp;nbsp;항체의&amp;nbsp;존재를&amp;nbsp;확인&lt;/b&gt;합니다. 즉, CMV IgG 검사에서 양성이 검출된다면 과거에 CMV에 한 번이라도 노출된 상태였다는 것을 의미하는 것이죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가임기란?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적으로 여성의 가임기는 초경(첫 월경)부터 시작해서 폐경까지의 기간을 의미합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;구체적으로는&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;시작: 보통 11-15세 사이에 초경이 시작됩니다. 평균적으로는 12-13세 정도입니다.&lt;/li&gt;
&lt;li&gt;종료: 폐경은 대개 45-55세 사이에 일어나며, 평균적으로 51세 정도입니다. 폐경은 12개월 동안 월경이 없을 때 공식적으로 진단됩니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Abstract&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구의&amp;nbsp;목적은&amp;nbsp;장기간에&amp;nbsp;걸친&amp;nbsp;(21년,&amp;nbsp;1995~2015)&amp;nbsp;한국인의&amp;nbsp;CMV&amp;nbsp;항체&amp;nbsp;양성률&amp;nbsp;변화를&amp;nbsp;분석하여&amp;nbsp;시간에&amp;nbsp;따른&amp;nbsp;변화&amp;nbsp;파악&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;데이터&amp;nbsp;수집:&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;기간:&amp;nbsp;1995년&amp;nbsp;1월부터&amp;nbsp;2015년&amp;nbsp;12월까지&amp;nbsp;(21년간)&lt;br /&gt;-&amp;nbsp;장소:&amp;nbsp;성균관대학교&amp;nbsp;의과대학&amp;nbsp;삼성서울병원&lt;br /&gt;-&amp;nbsp;대상:&amp;nbsp;CMV&amp;nbsp;IgG&amp;nbsp;검사를&amp;nbsp;받은&amp;nbsp;모든&amp;nbsp;환자&amp;nbsp;(총&amp;nbsp;11,584명)&lt;br /&gt;-&amp;nbsp;중복&amp;nbsp;제거:&amp;nbsp;한&amp;nbsp;환자가&amp;nbsp;여러&amp;nbsp;번&amp;nbsp;검사를&amp;nbsp;받은&amp;nbsp;경우&amp;nbsp;첫&amp;nbsp;번째&amp;nbsp;결과만&amp;nbsp;사용&lt;br /&gt;&lt;br /&gt;&lt;b&gt;데이터&amp;nbsp;분류:&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;시기별:&amp;nbsp;1기(1995-2005년)와&amp;nbsp;2기(2006-2015년)로&amp;nbsp;구분&lt;br /&gt;-&amp;nbsp;period1&amp;nbsp;,&amp;nbsp;period2&lt;br /&gt;-&amp;nbsp;연령별:&amp;nbsp;10년&amp;nbsp;단위로&amp;nbsp;그룹화&amp;nbsp;(0-10세,&amp;nbsp;11-20세&amp;nbsp;등)&lt;br /&gt;-&amp;nbsp;성별&lt;br /&gt;-&amp;nbsp;지역별:&amp;nbsp;7개&amp;nbsp;광역시와&amp;nbsp;6개&amp;nbsp;도&amp;nbsp;포함&lt;br /&gt;&lt;br /&gt;&lt;b&gt;검사방법&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;2008년&amp;nbsp;이후:&amp;nbsp;VIDAS&amp;nbsp;CMV&amp;nbsp;IgG&amp;nbsp;(Biomerieux,&amp;nbsp;France)&amp;nbsp;사용&lt;br /&gt;-&amp;nbsp;2008년&amp;nbsp;이전:&amp;nbsp;사용된&amp;nbsp;키트&amp;nbsp;정보&amp;nbsp;불가&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;가임기 여성의 CMV 감염에 대한 내용&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Data from 2,441 females in the reproductive age (15 to 49 years old) were further analyzed CMV IgG positivity was 97% (2,467/2,441) and the average seropositivity in each age group (every 5 years; 15&amp;ndash;19, 20&amp;ndash;24, 25&amp;ndash;29, 30&amp;ndash;34, 35&amp;ndash;39, 40&amp;ndash;44, and 45&amp;ndash;49) was 83.8%, 97.6%, 97.2%, 97.2%, 98.6%, 99.5%, and 99.5%, respectively&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가임기&amp;nbsp;여성&amp;nbsp;2441명의&amp;nbsp;데이터를&amp;nbsp;보면&amp;nbsp;CMV&amp;nbsp;IgG&amp;nbsp;양성률은&amp;nbsp;97%로&amp;nbsp;매우&amp;nbsp;높았습니다.&amp;nbsp;5년&amp;nbsp;단위로&amp;nbsp;연령대를&amp;nbsp;나누어&amp;nbsp;분석했을&amp;nbsp;때,&amp;nbsp;15-19세를&amp;nbsp;제외한&amp;nbsp;모든&amp;nbsp;연령대에서&amp;nbsp;97%&amp;nbsp;이상의&amp;nbsp;높은&amp;nbsp;양성률을&amp;nbsp;보였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Comparison of CMV seropositivity between women of reproductive age and men in the same age group is shown in Fig. 2B. CMV seropositivity in women in the 20&amp;ndash;24-year age group&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;20-24세&amp;nbsp;여성의&amp;nbsp;CMV&amp;nbsp;항체&amp;nbsp;양성률은&amp;nbsp;같은&amp;nbsp;연령대의&amp;nbsp;남성보다&amp;nbsp;유의하게&amp;nbsp;높았습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;The overall CMV IgG positivity in the first child bearing age group (25&amp;ndash;30 years of age)18) was 96.1%. There was no difference in seropositivity between period 1 (97%, 192/198) and period 2 (95.4%, 272/285) (P=0.482).&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫&amp;nbsp;출산&amp;nbsp;연령대(25-30세)의&amp;nbsp;전체&amp;nbsp;CMV&amp;nbsp;IgG&amp;nbsp;양성률은&amp;nbsp;96.1%였으며,&amp;nbsp;1기와&amp;nbsp;2기&amp;nbsp;사이에&amp;nbsp;유의한&amp;nbsp;차이가&amp;nbsp;없었습니다.&amp;nbsp;&lt;br /&gt;-&amp;gt;&amp;nbsp;이는&amp;nbsp;한국의&amp;nbsp;가임기&amp;nbsp;여성들&amp;nbsp;중&amp;nbsp;대부분이&amp;nbsp;CMV에&amp;nbsp;이미&amp;nbsp;노출되었다?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Such a high female CMV seropositivity in reproductive age implies that the Korean congenital CMV infection would be mostly caused by re-infection or re-activation rather than by primary infection.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;가임기&amp;nbsp;여성의&amp;nbsp;높은&amp;nbsp;CMV&amp;nbsp;항체&amp;nbsp;양성률은&amp;nbsp;한국의&amp;nbsp;선청성&amp;nbsp;CMV&amp;nbsp;감염이&amp;nbsp;주로&amp;nbsp;재감염이나&amp;nbsp;재활성화(reproductive)에&amp;nbsp;의해&amp;nbsp;발생할&amp;nbsp;가능성이&amp;nbsp;높다는&amp;nbsp;것을&amp;nbsp;시사합니다.&amp;nbsp;&lt;br /&gt;-&amp;gt;&amp;nbsp;1차&amp;nbsp;감염에&amp;nbsp;의한&amp;nbsp;선천성&amp;nbsp;CMV&amp;nbsp;감염이&amp;nbsp;더&amp;nbsp;흔한&amp;nbsp;미국과&amp;nbsp;다른&amp;nbsp;양상임.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;미국 논문에 따르면 선천성 CMV(Congenital CMV)에 대한 내용이 주요함.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;833&quot; data-origin-height=&quot;272&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dmUMSG/btsI8GY1j51/x8kQvxCh5zJJzfWMZQFJTK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dmUMSG/btsI8GY1j51/x8kQvxCh5zJJzfWMZQFJTK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dmUMSG/btsI8GY1j51/x8kQvxCh5zJJzfWMZQFJTK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdmUMSG%2FbtsI8GY1j51%2Fx8kQvxCh5zJJzfWMZQFJTK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;833&quot; height=&quot;272&quot; data-origin-width=&quot;833&quot; data-origin-height=&quot;272&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table2&lt;br /&gt;&lt;b&gt;-&amp;nbsp;독일&amp;nbsp;(1996-2010):&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;대상:&amp;nbsp;임신부&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;결과:&amp;nbsp;1996-2000년&amp;nbsp;44.3%,&amp;nbsp;2001-2005년&amp;nbsp;42.8%,&amp;nbsp;2006-2010년&amp;nbsp;40.9%로&amp;nbsp;감소&amp;nbsp;추세&lt;br /&gt;&lt;b&gt;-&amp;nbsp;일본&amp;nbsp;(2003-2012):&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;대상:&amp;nbsp;임신부&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;결과:&amp;nbsp;2003년&amp;nbsp;69.9%에서&amp;nbsp;2012년&amp;nbsp;65.2%로&amp;nbsp;감소&lt;br /&gt;&lt;b&gt;-&amp;nbsp;태국&amp;nbsp;(1984&amp;nbsp;vs&amp;nbsp;1989):&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;대상:&amp;nbsp;아동&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;결과:&amp;nbsp;1984년&amp;nbsp;59.0%에서&amp;nbsp;1989년&amp;nbsp;46.0%로&amp;nbsp;감소&lt;br /&gt;&lt;b&gt;-&amp;nbsp;일본&amp;nbsp;(2001-2002&amp;nbsp;vs&amp;nbsp;2013):&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;대상:&amp;nbsp;제대혈&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;결과:&amp;nbsp;2001-2002년&amp;nbsp;75.7%에서&amp;nbsp;2013년&amp;nbsp;67.2%로&amp;nbsp;감소&lt;br /&gt;&lt;b&gt;-&amp;nbsp;스페인&amp;nbsp;(1993&amp;nbsp;vs&amp;nbsp;1999):&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;대상:&amp;nbsp;여성&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;결과:&amp;nbsp;6-10세:&amp;nbsp;1993년&amp;nbsp;56.7%에서&amp;nbsp;1999년&amp;nbsp;43.7%로&amp;nbsp;감소&amp;nbsp;31-40세:&amp;nbsp;1993년&amp;nbsp;90.3%에서&amp;nbsp;1999년&amp;nbsp;79.1%로&amp;nbsp;감소&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여러&amp;nbsp;국가에서&amp;nbsp;시간이&amp;nbsp;지남에&amp;nbsp;따라&amp;nbsp;CMV&amp;nbsp;혈청&amp;nbsp;유병률이&amp;nbsp;감소하는&amp;nbsp;경향을&amp;nbsp;보여줍니다.&amp;nbsp;이는&amp;nbsp;한국의&amp;nbsp;높은&amp;nbsp;CMV&amp;nbsp;양성율과&amp;nbsp;대조되는&amp;nbsp;결과로&amp;nbsp;한국의&amp;nbsp;상황이&amp;nbsp;다른&amp;nbsp;국가들과&amp;nbsp;다르다고&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;530&quot; data-origin-height=&quot;689&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nXqYR/btsJadVifEr/sWWQrxhZQskrrv4Wo54EAk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nXqYR/btsJadVifEr/sWWQrxhZQskrrv4Wo54EAk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nXqYR/btsJadVifEr/sWWQrxhZQskrrv4Wo54EAk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FnXqYR%2FbtsJadVifEr%2FsWWQrxhZQskrrv4Wo54EAk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;530&quot; height=&quot;689&quot; data-origin-width=&quot;530&quot; data-origin-height=&quot;689&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;A&lt;br /&gt;두&amp;nbsp;기간(1기:&amp;nbsp;1995-2005년,&amp;nbsp;2기:&amp;nbsp;2006-2015년)에&amp;nbsp;대한&amp;nbsp;데이터를&amp;nbsp;비교&lt;br /&gt;20세&amp;nbsp;이상의&amp;nbsp;모든&amp;nbsp;연령&amp;nbsp;그룹에서&amp;nbsp;양성률이&amp;nbsp;95%&amp;nbsp;이상으로&amp;nbsp;매우&amp;nbsp;높게&amp;nbsp;유지&lt;br /&gt;대부분의&amp;nbsp;연령&amp;nbsp;그룹에서&amp;nbsp;CMV&amp;nbsp;혈청&amp;nbsp;양성률이&amp;nbsp;매우&amp;nbsp;높습니다(95%&amp;nbsp;이상).&lt;br /&gt;&lt;br /&gt;B&lt;br /&gt;이&amp;nbsp;그래프는&amp;nbsp;가임기&amp;nbsp;여성의&amp;nbsp;CMV&amp;nbsp;혈청&amp;nbsp;양성률을&amp;nbsp;같은&amp;nbsp;연령대의&amp;nbsp;남성과&amp;nbsp;비교&lt;br /&gt;대부분의&amp;nbsp;연령&amp;nbsp;그룹에서&amp;nbsp;여성의&amp;nbsp;CMV&amp;nbsp;혈청&amp;nbsp;양성률이&amp;nbsp;남성보다&amp;nbsp;높습니다.&lt;br /&gt;특히&amp;nbsp;20-24세&amp;nbsp;그룹에서&amp;nbsp;여성(97.6%)과&amp;nbsp;남성(85.6%)&amp;nbsp;사이의&amp;nbsp;차이가&amp;nbsp;통계적으로&amp;nbsp;유의합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;CMV&amp;nbsp;seropositivity&amp;nbsp;by&amp;nbsp;region&lt;/h2&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Among 10,900 patients who were CMV IgG positive, 89.2% (9,718/10,900) had residential region identified by medical records (Fig. 3). The CMV seropositivity of all regions was over 90% in all metropolitan cities and provinces with no statistical significance.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Fig3&amp;nbsp;에서&amp;nbsp;CMV&amp;nbsp;IgG&amp;nbsp;양성인&amp;nbsp;10,900&amp;nbsp;명의&amp;nbsp;환자&amp;nbsp;중&amp;nbsp;89.2%&amp;nbsp;의&amp;nbsp;거주&amp;nbsp;지역이&amp;nbsp;의무기록을&amp;nbsp;통해&amp;nbsp;확인되었음.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;전국적으로&amp;nbsp;높은&amp;nbsp;양성률을&amp;nbsp;보임.&lt;br /&gt;&lt;br /&gt;-&amp;gt; 사실 이전의 결과만 봐도 90%대에 육박하는 양성률 때문에 전국적으로도 높게 측정될 수 밖에 없다고 생각됨.&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Conclusion&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a title=&quot;'Congenital and perinatal cytomegalovirus infection' - 김창수(2010)&quot; href=&quot;https://www.e-cep.org/journal/view.php?number=2010530103&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;'&lt;/a&gt;&lt;span style=&quot;background-color: #ffffff; color: #2f312f; text-align: left;&quot;&gt;&lt;a title=&quot;'Congenital and perinatal cytomegalovirus infection' - 김창수(2010)&quot; href=&quot;https://www.e-cep.org/journal/view.php?number=2010530103&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;Congenital and perinatal cytomegalovirus infection' - 김창수(2010)&lt;/a&gt; 논문에 따르면 &lt;/span&gt;한국인의 유전적 특성이 CMV 감염에 대한 감수성에 영향을 미칠 수 있다는 가설을 제시했지만, 이를 뒷받침할 직접적인 증거는 제한적입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a title=&quot;Congenital cytomegalovirus infection in Korean population with very high prevalence of maternal immunity - 손영모(1992)&quot; href=&quot;https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3053812/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3053812/&lt;/a&gt; (Congenital cytomegalovirus infection in Korean population with very high prevalence of maternal immunity - 손영모(1992) )&amp;nbsp; 논문에 따르면 한국의 전통적인 육아 방식, 특히 여러 세대가 함께 사는 가족 구조가 어린 아이들과 성인 간의 CMV 전파를 증가시킬 수 있다고 제안했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이외에 다양한 한국 상황에 대한 연구가 진행되었지만, 이 연구들의 내용은 대부분 가설적이며 한국의 cCMV IgG 높은 양성률에 대한 정확한 원인을 밝히기 위해서는 더 많은 연구가 필요합니다. 또한 다른 아시아 국가들도 비교적 높은 CMV 양성률을 보이고 있어, 이것이 한국만의 특수한 현상인지 아니면 지역적 특성인지에 대한 추가적인 연구도 필요할 것으로 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/130</guid>
      <comments>https://minyoungxi.tistory.com/130#entry130comment</comments>
      <pubDate>Tue, 20 Aug 2024 15:58:43 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - Valganciclovir for Symptomatic Congenital Cytomegalovirus Disease - CMV 라는 바이러스 !!</title>
      <link>https://minyoungxi.tistory.com/129</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Terms&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;symptomatic&amp;nbsp;congenital&amp;nbsp;cytomegalovirus&amp;nbsp;(CMV)&amp;nbsp;disease&amp;nbsp;-&amp;nbsp;시토메갈로&amp;nbsp;바이러스&amp;nbsp;(거대&amp;nbsp;세포)&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;정상인에게는&amp;nbsp;별&amp;nbsp;문제가&amp;nbsp;되지&amp;nbsp;않으나&amp;nbsp;신생아에게는&amp;nbsp;심각한&amp;nbsp;영향을&amp;nbsp;줄&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;바이러스&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;호중구감소증(neutropenia)&lt;/b&gt; - 본 연구에서는 안정성 지표로 사용되었습니다. 호중구감소증은 혈액 내 호중구(백혈구의 일종) 수가 정상보다 낮은 상태를 말합니다. 이 연구에서는 특히 3등급 또는 4등급의 심각한 호중구감소증에 주목했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;nbsp;연구에서&amp;nbsp;경구&lt;b&gt;&amp;nbsp;valganciclovir&amp;nbsp;&lt;/b&gt;사용 시 초기 6주간의 호중구감소증 발생률(19%)은 이전 연구에서 정맥 Ganciclovir 사용 시 보고된 발생률(63%)보다 낮았습니다.&lt;br /&gt;- 연구자들은 약물로 인한 호중구감소증이 주로 치료 첫 6주 동안 우려되며, 경구 valganciclovir 사용 시 이 위험이 감소하는 것으로 해석했습니다.&lt;br /&gt;-&amp;nbsp;&lt;b&gt;Ganciclovir&lt;/b&gt; : Ganciclovir는 항바이러스 약물로, 주로 거대세포바이러스(CMV) 감염 치료에 사용됩니다.&lt;br /&gt;-&amp;nbsp;이전&amp;nbsp;연구에서&amp;nbsp;6주간의&amp;nbsp;정맥&amp;nbsp;Ganciclovir&amp;nbsp;치료가&amp;nbsp;선천성&amp;nbsp;CMV&amp;nbsp;감염&amp;nbsp;신생아의&amp;nbsp;청력&amp;nbsp;결과를&amp;nbsp;개선시켰습니다.&lt;br /&gt;-&amp;nbsp;Valganciclovir는&amp;nbsp;Ganciclovir의&amp;nbsp;전구약물(prodrug)입니다.&lt;br /&gt;-&amp;nbsp;경구&amp;nbsp;투여&amp;nbsp;후&amp;nbsp;체내에서&amp;nbsp;Ganciclovir로&amp;nbsp;전환되어&amp;nbsp;작용합니다.&lt;br /&gt;-&amp;nbsp;이&amp;nbsp;연구는&amp;nbsp;경구용&amp;nbsp;Valganciclovir의&amp;nbsp;6개월&amp;nbsp;치료가&amp;nbsp;선천성&amp;nbsp;CMV&amp;nbsp;감염&amp;nbsp;치료에&amp;nbsp;효과적이고&amp;nbsp;안전할&amp;nbsp;수&amp;nbsp;있음을&amp;nbsp;보여주었습니다.&lt;br /&gt;-&amp;nbsp;이는&amp;nbsp;정맥&amp;nbsp;Ganciclovir&amp;nbsp;치료의&amp;nbsp;대안으로&amp;nbsp;장기&amp;nbsp;치료&amp;nbsp;옵션을&amp;nbsp;제공할&amp;nbsp;수&amp;nbsp;있음을&amp;nbsp;시사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Background&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;선천성 CMV 감염은 비유전적 감각신경성 난청의 주요 원인이며, 정신지체의 가장 흔한 바이러스 원인입니다.&lt;br /&gt;이전 연구에서 6주간의 정맥 내 ganciclovir 치료가 6개월 시점의 청력을 개선시켰지만, 그 효과가 시간이 지남에 따라 감소하는 것으로 나타납니다. 이 연구의 목적은 경구용 valganciclovir 를 6개월간 투여하는 것이 6주 투여에 비해 더 나은 결과를 가져오는지 평가하는 것.&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Methods&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;대상&lt;/b&gt; : 증상이 있는 선청성 CMV 감염 신생아&amp;nbsp;&amp;nbsp;96명&amp;nbsp;&lt;br /&gt;&lt;b&gt;실험&amp;nbsp;방법&amp;nbsp;&lt;/b&gt;:&amp;nbsp;무작위,&amp;nbsp;위약&amp;nbsp;대조&amp;nbsp;임상&amp;nbsp;시험&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;증상이 있는 선천성 CMV 질환이 있는 신생아를 대상으로&amp;nbsp; &lt;b&gt;valganciclovir&lt;/b&gt; 치료에 대해서 &lt;b&gt;무작위, 위약 대조 실험(placebo-controlled trial of valganciclovir therapy)&lt;/b&gt; 을 실시하여 6개월의 치료와 6주간의 치료를 비교했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;692&quot; data-origin-height=&quot;380&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/mDlCQ/btsI9tkg6fg/m8kEoDT7St0LSoM0J3xG90/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/mDlCQ/btsI9tkg6fg/m8kEoDT7St0LSoM0J3xG90/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/mDlCQ/btsI9tkg6fg/m8kEoDT7St0LSoM0J3xG90/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FmDlCQ%2FbtsI9tkg6fg%2Fm8kEoDT7St0LSoM0J3xG90%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;572&quot; height=&quot;314&quot; data-origin-width=&quot;692&quot; data-origin-height=&quot;380&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;치료 : 모든 참여자가 6주간 valganciclovir를 투여받은 후, 무작위로 추가 4.5개월간 valganciclovir 또는 위약을 투여 받습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;675&quot; data-origin-height=&quot;284&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/OH5uR/btsJadOs3jP/7k1bf0FFWhYPCRc7s3YJjk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/OH5uR/btsJadOs3jP/7k1bf0FFWhYPCRc7s3YJjk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/OH5uR/btsJadOs3jP/7k1bf0FFWhYPCRc7s3YJjk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FOH5uR%2FbtsJadOs3jP%2F7k1bf0FFWhYPCRc7s3YJjk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;537&quot; height=&quot;226&quot; data-origin-width=&quot;675&quot; data-origin-height=&quot;284&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;1차&amp;nbsp;평가지표&amp;nbsp;:&amp;nbsp;기저시점부터&amp;nbsp;6개월까지의&amp;nbsp;더&amp;nbsp;나은&amp;nbsp;청력&amp;nbsp;변화&amp;nbsp;&lt;br /&gt;2차&amp;nbsp;평가지표&amp;nbsp;:&amp;nbsp;12개월&amp;nbsp;및&amp;nbsp;24개월&amp;nbsp;시점의&amp;nbsp;청력&amp;nbsp;변화,&amp;nbsp;신경발달&amp;nbsp;결과&amp;nbsp;등&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Results&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;681&quot; data-origin-height=&quot;774&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bkvqoX/btsI8oYtQNl/KyP4x8nkVJENR1ecD7m750/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bkvqoX/btsI8oYtQNl/KyP4x8nkVJENR1ecD7m750/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bkvqoX/btsI8oYtQNl/KyP4x8nkVJENR1ecD7m750/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbkvqoX%2FbtsI8oYtQNl%2FKyP4x8nkVJENR1ecD7m750%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;681&quot; height=&quot;774&quot; data-origin-width=&quot;681&quot; data-origin-height=&quot;774&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;figure1.&amp;nbsp;임상&amp;nbsp;시험의&amp;nbsp;참가자&amp;nbsp;흐름도(flow&amp;nbsp;chart)&lt;br /&gt;&lt;br /&gt;등록된&amp;nbsp;환자&amp;nbsp;중&amp;nbsp;96명이&amp;nbsp;맹검&amp;nbsp;단계에&amp;nbsp;진입하여&amp;nbsp;무작위&amp;nbsp;배정을&amp;nbsp;받았습니다.&amp;nbsp;&lt;b&gt;47명이&amp;nbsp;6개월&amp;nbsp;valganciclovir&amp;nbsp;치료군에,&amp;nbsp;49명이&amp;nbsp;6주&amp;nbsp;치료&amp;nbsp;후&amp;nbsp;위약군&lt;/b&gt;에&amp;nbsp;배정되었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;6개월&amp;nbsp;시점에는&amp;nbsp;각&amp;nbsp;그룹에서&amp;nbsp;43명씩&amp;nbsp;청력&amp;nbsp;평가&amp;nbsp;결과가&amp;nbsp;있었습니다.&amp;nbsp;12개월&amp;nbsp;시점에는&amp;nbsp;6개월&amp;nbsp;치료군에서&amp;nbsp;41명,&amp;nbsp;6주&amp;nbsp;치료군에서&amp;nbsp;40명의&amp;nbsp;청력&amp;nbsp;평가&amp;nbsp;결과가&amp;nbsp;있었고,&amp;nbsp;Bayley-III&amp;nbsp;평가는&amp;nbsp;각각&amp;nbsp;43명과&amp;nbsp;45명이&amp;nbsp;받았습니다.&lt;br /&gt;&lt;br /&gt;24개월&amp;nbsp;시점에는&amp;nbsp;6개월&amp;nbsp;치료군에서&amp;nbsp;37명,&amp;nbsp;6주&amp;nbsp;치료군에서&amp;nbsp;31명의&amp;nbsp;청력&amp;nbsp;평가&amp;nbsp;결과가&amp;nbsp;있었고,&amp;nbsp;Bayley-III&amp;nbsp;평가는&amp;nbsp;각각&amp;nbsp;42명과&amp;nbsp;41명이&amp;nbsp;받았습니다.&amp;nbsp;각&amp;nbsp;평가&amp;nbsp;시점마다&amp;nbsp;다양한&amp;nbsp;이유로&amp;nbsp;일부&amp;nbsp;참가자들의&amp;nbsp;평가가&amp;nbsp;불가능했으며,&amp;nbsp;이에&amp;nbsp;대한&amp;nbsp;상세한&amp;nbsp;정보도&amp;nbsp;제공되어&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Bayley-III 평가는 영유아의 발달을 평가하는 도구. 정식 명칭은 &quot;Bayley Scales of Infant and Toddler Development, Third Edition&quot;입니다. 이 평가는 생후 1개월부터 42개월까지의 영유아를 대상으로 합니다. 이 연구에서 Bayley-III 평가는 선천성 CMV 감염 치료가 영유아의 전반적인 발달에 미치는 영향을 평가하는 데 사용되었습니다. 특히 12개월과 24개월 시점에서 언어 발달, 인지 발달, 운동 발달 등의 영역에서 치료 효과를 측정하는 중요한 도구로 활용되었습니다. &lt;br /&gt;&lt;br /&gt;평가 영역: &lt;br /&gt;- 인지 발달(Cognitive Scale) &lt;br /&gt;- 언어 발달(Language Scale): 수용 언어와 표현 언어로 구분&lt;br /&gt;- 운동 발달(Motor Scale): 대근육 운동과 소근육 운동으로 구분&lt;br /&gt;- 사회-정서 발달(Social-Emotional Scale)&lt;br /&gt;- 적응 행동(Adaptive Behavior Scale)&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;6개월&amp;nbsp;시점의&amp;nbsp;청력&amp;nbsp;개선은&amp;nbsp;두&amp;nbsp;그룹&amp;nbsp;간&amp;nbsp;유의한&amp;nbsp;차이가&amp;nbsp;없었습니다.&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;12개월&amp;nbsp;및&amp;nbsp;24개월&amp;nbsp;시점의&amp;nbsp;청력&amp;nbsp;결과는&amp;nbsp;6개월&amp;nbsp;치료군에서&amp;nbsp;유의하게&amp;nbsp;더&amp;nbsp;좋은&amp;nbsp;결과를&amp;nbsp;나타냄&amp;nbsp;:&lt;br /&gt;12개월 : 6개월 치료군 73% vs 6주 치료군 57% (p=0.01)&lt;br /&gt;24개월 : 6개월 치료군 77% vs 6주 치료군 64% (p=0.04)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;- 신경발달 결과 :&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;24개월 시점에 6개월 치료군은 Bayley-III 평가의 언어종합 점수와 수용적 의사 소통 척도에서 더 높은 점수를 보였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;안정성&amp;nbsp;:&lt;br /&gt;치료 첫 6주 동안 3-4 등급 호중구감소증 발생률은 19%&lt;br /&gt;이후 4.5개월 동안 3-4 등급 호중구감소증 발생률은 6개월 치료군 21% , 6주 치료군 27%로 유의한 차이가 없었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;459&quot; data-origin-height=&quot;771&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/eoILcV/btsI789scVD/5klLAuJkBMS2hqpmnkx2BK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/eoILcV/btsI789scVD/5klLAuJkBMS2hqpmnkx2BK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/eoILcV/btsI789scVD/5klLAuJkBMS2hqpmnkx2BK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FeoILcV%2FbtsI789scVD%2F5klLAuJkBMS2hqpmnkx2BK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;459&quot; height=&quot;771&quot; data-origin-width=&quot;459&quot; data-origin-height=&quot;771&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table&amp;nbsp;1은&amp;nbsp;연구&amp;nbsp;참가자들의&amp;nbsp;기저&amp;nbsp;특성을&amp;nbsp;보여줍니다.&amp;nbsp;6개월&amp;nbsp;치료군(47명)과&amp;nbsp;6주&amp;nbsp;치료군(49명)의&amp;nbsp;특성을&amp;nbsp;비교하고&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;재태&amp;nbsp;연령은&amp;nbsp;두&amp;nbsp;그룹&amp;nbsp;간&amp;nbsp;유사했으며,&amp;nbsp;&lt;b&gt;32-37주가&amp;nbsp;각각&amp;nbsp;51%와&amp;nbsp;45%,&amp;nbsp;37주&amp;nbsp;이상이&amp;nbsp;49%와&amp;nbsp;55%&lt;/b&gt;였습니다.&amp;nbsp;등록&amp;nbsp;시&amp;nbsp;연령&amp;nbsp;분포는&amp;nbsp;약간의&amp;nbsp;차이가&amp;nbsp;있었지만&amp;nbsp;통계적으로&amp;nbsp;유의하지&amp;nbsp;않았습니다(p=0.08).&lt;br /&gt;&lt;br /&gt;&lt;b&gt;CMV&amp;nbsp;질병의&amp;nbsp;양상은&amp;nbsp;두&amp;nbsp;그룹에서&amp;nbsp;비슷했으며,&amp;nbsp;혈소판&amp;nbsp;감소증,&amp;nbsp;점상&amp;nbsp;출혈,&amp;nbsp;간비대,&amp;nbsp;비장비대,&amp;nbsp;자궁&amp;nbsp;내&amp;nbsp;성장&amp;nbsp;지연,&amp;nbsp;간염&lt;/b&gt;&amp;nbsp;등이&amp;nbsp;포함되었습니다.&amp;nbsp;중추신경계&amp;nbsp;침범은&amp;nbsp;6개월&amp;nbsp;치료군에서&amp;nbsp;72%,&amp;nbsp;6주&amp;nbsp;치료군에서&amp;nbsp;59%로&amp;nbsp;나타났습니다(p=0.20).&amp;nbsp;소두증,&amp;nbsp;맥락망막염,&amp;nbsp;비정상적&amp;nbsp;신경영상&amp;nbsp;결과의&amp;nbsp;비율도&amp;nbsp;두&amp;nbsp;그룹&amp;nbsp;간&amp;nbsp;유의한&amp;nbsp;차이가&amp;nbsp;없었습니다.&lt;br /&gt;&lt;br /&gt;기저&amp;nbsp;시점의&amp;nbsp;최고&amp;nbsp;청력&amp;nbsp;상태는&amp;nbsp;두&amp;nbsp;그룹&amp;nbsp;간&amp;nbsp;약간의&amp;nbsp;차이가&amp;nbsp;있었지만&amp;nbsp;통계적으로&amp;nbsp;유의하지&amp;nbsp;않았습니다(p=0.17).&amp;nbsp;전반적으로&amp;nbsp;Table&amp;nbsp;1은&amp;nbsp;두&amp;nbsp;치료군&amp;nbsp;간의&amp;nbsp;기저&amp;nbsp;특성이&amp;nbsp;대체로&amp;nbsp;균형을&amp;nbsp;이루고&amp;nbsp;있음을&amp;nbsp;보여주며,&amp;nbsp;이는&amp;nbsp;무작위&amp;nbsp;배정이&amp;nbsp;효과적으로&amp;nbsp;이루어졌음을&amp;nbsp;시사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Discussion&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;증상이&amp;nbsp;있는&amp;nbsp;선천성&amp;nbsp;CMV&amp;nbsp;감염&amp;nbsp;신생아에서&amp;nbsp;6개월간의&amp;nbsp;valganciclovir&amp;nbsp;치료가&amp;nbsp;장기적인&amp;nbsp;청력&amp;nbsp;및&amp;nbsp;신경발달&amp;nbsp;결과를&amp;nbsp;개선시킬&amp;nbsp;수&amp;nbsp;있음을&amp;nbsp;보여줍니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;특히&amp;nbsp;&lt;b&gt;중추신경계&amp;nbsp;침범(CMV&amp;nbsp;disease&amp;nbsp;involving&amp;nbsp;Central&amp;nbsp;nervous&amp;nbsp;system)&lt;/b&gt;이&amp;nbsp;있는&amp;nbsp;환자들에게서&amp;nbsp;더&amp;nbsp;큰&amp;nbsp;개선이&amp;nbsp;관찰되었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;6개월&amp;nbsp;치료는&amp;nbsp;호중구감소증&amp;nbsp;위험을&amp;nbsp;크게&amp;nbsp;증가시키지&amp;nbsp;않았으며&amp;nbsp;장기간&amp;nbsp;정맥&amp;nbsp;주사로&amp;nbsp;인한&amp;nbsp;불편함을&amp;nbsp;피할&amp;nbsp;수&amp;nbsp;있었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Limitations&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;nbsp;이&amp;nbsp;연구는&amp;nbsp;무증상&amp;nbsp;선천성&amp;nbsp;CMV&amp;nbsp;감염&amp;nbsp;영아에게는&amp;nbsp;적용되지&amp;nbsp;않았습니다.&lt;br /&gt;-&amp;nbsp;CMV&amp;nbsp;관련&amp;nbsp;감각신경성&amp;nbsp;난청은&amp;nbsp;시간에&amp;nbsp;따라&amp;nbsp;변동될&amp;nbsp;수&amp;nbsp;있으므로,&amp;nbsp;치료&amp;nbsp;효과를&amp;nbsp;정확하게&amp;nbsp;평가하기&amp;nbsp;위해서는&amp;nbsp;전향적,&amp;nbsp;대조군&amp;nbsp;설계가&amp;nbsp;중요합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Conclusion&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;증상이&amp;nbsp;있는&amp;nbsp;CMV&amp;nbsp;감염&amp;nbsp;영아에서&amp;nbsp;6개월간의&amp;nbsp;경구&amp;nbsp;valganciclovir&amp;nbsp;치료가&amp;nbsp;장기적인&amp;nbsp;청력&amp;nbsp;및&amp;nbsp;신경발달&amp;nbsp;결과에&amp;nbsp;긍정적인&amp;nbsp;영향을&amp;nbsp;미칠&amp;nbsp;수&amp;nbsp;있으며,&amp;nbsp;안전성&amp;nbsp;측면에서도&amp;nbsp;수용&amp;nbsp;가능한&amp;nbsp;수준임을&amp;nbsp;제시하고&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;</description>
      <category>ccmv</category>
      <category>CMV</category>
      <category>Medical</category>
      <category>논문</category>
      <category>딥러닝</category>
      <category>머신러닝</category>
      <category>의료빅데이터</category>
      <category>의료인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/129</guid>
      <comments>https://minyoungxi.tistory.com/129#entry129comment</comments>
      <pubDate>Tue, 20 Aug 2024 14:59:45 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - Infants Admitted to US Intensive Care Units for RSV Infection During the 2022 Seasonal Peak - 메디컬 핫토픽 RSV</title>
      <link>https://minyoungxi.tistory.com/128</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;768&quot; data-origin-height=&quot;390&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/74LIf/btsIUiwNWtL/oY6YBtRls2478tKIgC9VsK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/74LIf/btsIUiwNWtL/oY6YBtRls2478tKIgC9VsK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/74LIf/btsIUiwNWtL/oY6YBtRls2478tKIgC9VsK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F74LIf%2FbtsIUiwNWtL%2FoY6YBtRls2478tKIgC9VsK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;768&quot; height=&quot;390&quot; data-origin-width=&quot;768&quot; data-origin-height=&quot;390&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;RSV(호흡기 세포융합 바이러스)의 중요성&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;전&amp;nbsp;세계적으로&amp;nbsp;5세&amp;nbsp;미만&amp;nbsp;아동의&amp;nbsp;하기도&amp;nbsp;감염&amp;nbsp;및&amp;nbsp;입원의&amp;nbsp;주요&amp;nbsp;원인&lt;br /&gt;-&amp;nbsp;미국에서&amp;nbsp;매년&amp;nbsp;5세&amp;nbsp;미만&amp;nbsp;아동&amp;nbsp;약&amp;nbsp;57,000명&amp;nbsp;입원&lt;br /&gt;-&amp;nbsp;생후&amp;nbsp;1년&amp;nbsp;내&amp;nbsp;입원의&amp;nbsp;주요&amp;nbsp;원인&lt;br /&gt;&lt;br /&gt;&lt;b&gt;RSV로 인한 중환자실 입원&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;RSV&amp;nbsp;양성으로&amp;nbsp;입원한&amp;nbsp;어린&amp;nbsp;아동의&amp;nbsp;약&amp;nbsp;20%가&amp;nbsp;중환자실에&amp;nbsp;입원&lt;br /&gt;&lt;br /&gt;&lt;b&gt;RSV 중증 감염 위험군&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;대부분의&amp;nbsp;입원&amp;nbsp;아동은&amp;nbsp;건강하고&amp;nbsp;만삭으로&amp;nbsp;태어난&amp;nbsp;아이들&lt;br /&gt;-&amp;nbsp;조산아,&amp;nbsp;선천성&amp;nbsp;심장병,&amp;nbsp;신경계&amp;nbsp;질환,&amp;nbsp;만성&amp;nbsp;폐질환,&amp;nbsp;면역&amp;nbsp;저하&amp;nbsp;상태의&amp;nbsp;아동들이&amp;nbsp;생명을&amp;nbsp;위협하는&amp;nbsp;RSV&amp;nbsp;질환에&amp;nbsp;더&amp;nbsp;취약&lt;br /&gt;&lt;br /&gt;&lt;b&gt;RSV 예방&lt;/b&gt;&lt;br /&gt;-&lt;b&gt;&amp;nbsp;Palivizumab(단클론항체)&lt;/b&gt;이&amp;nbsp;유일한&amp;nbsp;미국&amp;nbsp;FDA&amp;nbsp;승인&amp;nbsp;예방제였으나&amp;nbsp;고위험&amp;nbsp;영아에게만&amp;nbsp;제한적&amp;nbsp;사용&lt;br /&gt;-&amp;nbsp;장기&amp;nbsp;작용&amp;nbsp;단클론항체와&amp;nbsp;모체&amp;nbsp;백신이&amp;nbsp;새로운&amp;nbsp;예방&amp;nbsp;옵션으로&amp;nbsp;개발&amp;nbsp;중&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Palivizumab, a monoclonal antibody (IgG) targeting the RSV F protein, is given monthly by intramuscular injection during RSV season to prevent RSV-associated lower respiratory tract infection (LRTI).&amp;nbsp;&lt;br /&gt;-&amp;gt; RSV F 단백질을 표적으로 하는 단일클론 항체(IgG)인 팔리비주맙은 RSV 계절 동안 RSV 관련 하부 호흡기 감염(LRTI)을 예방하기 위해 매달 근육 주사로 투여합니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;COVID-19 팬데믹의 영향&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;RSV&amp;nbsp;순환&amp;nbsp;패턴&amp;nbsp;변화&lt;br /&gt;-&amp;nbsp;2021년과&amp;nbsp;2022년에&amp;nbsp;비정상적인&amp;nbsp;RSV&amp;nbsp;유행&amp;nbsp;발생&lt;br /&gt;&lt;br /&gt;&lt;b&gt;연구의 목적&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;2022년&amp;nbsp;RSV&amp;nbsp;유행기&amp;nbsp;동안&amp;nbsp;미국&amp;nbsp;영아의&amp;nbsp;RSV&amp;nbsp;관련&amp;nbsp;중증&amp;nbsp;질병의&amp;nbsp;특성과&amp;nbsp;결과&amp;nbsp;평가&lt;br /&gt;-&amp;nbsp;중증&amp;nbsp;RSV&amp;nbsp;질환&amp;nbsp;위험이&amp;nbsp;있는&amp;nbsp;영아&amp;nbsp;식별&lt;br /&gt;-&amp;nbsp;향후&amp;nbsp;임상&amp;nbsp;효과&amp;nbsp;평가&amp;nbsp;및&amp;nbsp;제품&amp;nbsp;사용&amp;nbsp;권장&amp;nbsp;사항&amp;nbsp;지침&amp;nbsp;제공&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Methods&lt;/h2&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;We assessed demographic and clinical characteristics, including age, sex, race and Hispanic ethnicity, site region, underlying medical conditions, and presence of pulmonary infiltrates on chest radiograph per radiology report.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;연구 대상 선정 기준&amp;nbsp;&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;중환자실&amp;nbsp;또는&amp;nbsp;고위험&amp;nbsp;병동에&amp;nbsp;24시간&amp;nbsp;이상&amp;nbsp;입원&lt;br /&gt;-&amp;nbsp;RSV&amp;nbsp;관련&amp;nbsp;질병으로&amp;nbsp;입원&lt;br /&gt;-&amp;nbsp;입원&amp;nbsp;전&amp;nbsp;10일&amp;nbsp;이내에&amp;nbsp;증상&amp;nbsp;발현&lt;br /&gt;-&amp;nbsp;입원&amp;nbsp;전&amp;nbsp;또는&amp;nbsp;입원&amp;nbsp;후&amp;nbsp;72시간&amp;nbsp;이내에&amp;nbsp;RSV&amp;nbsp;검사&amp;nbsp;양성&amp;nbsp;확인&lt;br /&gt;&lt;br /&gt;&lt;b&gt;데이터&amp;nbsp;수집&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;인구통계학적&amp;nbsp;특성&lt;br /&gt;-&amp;nbsp;임상적&amp;nbsp;특성&lt;br /&gt;-&amp;nbsp;중재&amp;nbsp;방법&lt;br /&gt;-&amp;nbsp;실험실&amp;nbsp;검사&amp;nbsp;결과&amp;nbsp;(입원&amp;nbsp;후&amp;nbsp;72시간&amp;nbsp;이내의&amp;nbsp;다른&amp;nbsp;호흡기&amp;nbsp;바이러스&amp;nbsp;검사&amp;nbsp;및&amp;nbsp;3일&amp;nbsp;이내의&amp;nbsp;세균&amp;nbsp;검사&amp;nbsp;포함)&lt;br /&gt;-&amp;nbsp;임상&amp;nbsp;결과&lt;br /&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Statistics&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;범주형 변수: Pearson &amp;chi;2 검정 또는 Fisher의 정확 검정 사용&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;Fisher의&amp;nbsp;정확&amp;nbsp;검정은&amp;nbsp;기대&amp;nbsp;빈도가&amp;nbsp;5&amp;nbsp;미만인&amp;nbsp;셀이&amp;nbsp;있을&amp;nbsp;때&amp;nbsp;사용&lt;br /&gt;연속 변수: Kruskal-Wallis 검정(삽관 상태별 비교) 또는 Jonckheere-Terpstra 검정(연령군별 비교) 사용&lt;br /&gt;유의수준: 양측 P 값 &amp;lt; 0.05를 통계적으로 유의한 것으로 간주&lt;br /&gt;&lt;br /&gt;회귀&amp;nbsp;분석:&lt;br /&gt;-&amp;nbsp;주요&amp;nbsp;모델:&amp;nbsp;혼합&amp;nbsp;효과&amp;nbsp;다변량&amp;nbsp;로그-이항&amp;nbsp;회귀&amp;nbsp;모델&lt;br /&gt;-&amp;nbsp;목적:&amp;nbsp;삽관&amp;nbsp;상태와&amp;nbsp;인구통계학적&amp;nbsp;요인,&amp;nbsp;재태&amp;nbsp;연령,&amp;nbsp;기저&amp;nbsp;질환&amp;nbsp;간의&amp;nbsp;연관성&amp;nbsp;평가&lt;br /&gt;-&amp;nbsp;병원&amp;nbsp;간&amp;nbsp;이질성&amp;nbsp;고려:&amp;nbsp;병원을&amp;nbsp;랜덤&amp;nbsp;효과로&amp;nbsp;포함&lt;br /&gt;-&amp;nbsp;대체&amp;nbsp;모델:&amp;nbsp;표본&amp;nbsp;크기&amp;nbsp;제한으로&amp;nbsp;모델이&amp;nbsp;수렴하지&amp;nbsp;않을&amp;nbsp;경우&amp;nbsp;정확&amp;nbsp;포아송&amp;nbsp;회귀&amp;nbsp;모델&amp;nbsp;사용&lt;br /&gt;&lt;br /&gt;변수&amp;nbsp;선택&amp;nbsp;과정:&lt;br /&gt;-&amp;nbsp;초기&amp;nbsp;선별:&amp;nbsp;삽관&amp;nbsp;상태와&amp;nbsp;연관성이&amp;nbsp;있는&amp;nbsp;변수(&amp;alpha;&amp;nbsp;&amp;lt;&amp;nbsp;0.35)를&amp;nbsp;잠재적&amp;nbsp;공변량으로&amp;nbsp;고려&lt;br /&gt;-&amp;nbsp;최종&amp;nbsp;모델&amp;nbsp;구축:&amp;nbsp;각&amp;nbsp;노출&amp;nbsp;변수와&amp;nbsp;삽관&amp;nbsp;상태&amp;nbsp;모두와&amp;nbsp;관련될&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;변수만&amp;nbsp;포함&lt;br /&gt;-&amp;nbsp;변수&amp;nbsp;유지&amp;nbsp;기준:&amp;nbsp;제거&amp;nbsp;시&amp;nbsp;전체&amp;nbsp;모델의&amp;nbsp;효과&amp;nbsp;추정치를&amp;nbsp;10%&amp;nbsp;이상&amp;nbsp;변경시키는&amp;nbsp;경우&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Factors Associated With Risk for Intubation&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;Table1&amp;nbsp;-&amp;gt;&amp;nbsp;600명의&amp;nbsp;표본&amp;nbsp;영아를&amp;nbsp;삽관(인공호흡기&amp;nbsp;사용)&amp;nbsp;여부에&amp;nbsp;따라&amp;nbsp;비교&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;인공호흡기를&amp;nbsp;삽관한&amp;nbsp;아이들이&amp;nbsp;비삽관군보다&amp;nbsp;더&amp;nbsp;어림&lt;br /&gt;-&amp;nbsp;전체&amp;nbsp;28.9%가&amp;nbsp;조산아&lt;br /&gt;-&amp;nbsp;대부분이&amp;nbsp;기저&amp;nbsp;질환이&amp;nbsp;없음(81.2%)&lt;br /&gt;&lt;b&gt;-&amp;nbsp;99%가&amp;nbsp;하기도&amp;nbsp;감염으로&amp;nbsp;입원(LRTI)&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;하부 호흡기 감염(LRTI, Lower Respiratory Tract Infection)&lt;br /&gt;LRTI(하부 호흡기 감염)는 기관지, 세기관지, 폐포 등 하부 호흡기를 침범하는 감염으로, 바이러스나 세균에 의해 발생합니다. 주요 증상으로는 기침, 호흡곤란, 천명음, 발열 등이 있으며, 특히 영유아, 노인, 면역저하자에게 위험할 수 있습니다.&lt;br /&gt;&lt;br /&gt;RSV(호흡기 세포융합 바이러스)와 LRTI의 관련성: RSV는 LRTI의 주요 원인 중 하나로, 특히 영유아에서 중요한 병원체입니다. RSV는 기관지염과 폐렴 같은 LRTI를 유발할 수 있으며, 심각한 경우 입원이나 중환자실 치료가 필요할 수 있습니다. RSV로 인한 LRTI는 계절성을 보이며, 주로 겨울철에 유행합니다. RSV는 LRTI의 가장 흔한 원인 중 하나로, 영아의 입원 원인 중 상당 부분을 차지합니다. 따라서 RSV 예방과 조기 진단, 적절한 치료는 영유아의 LRTI 관리에 매우 중요합니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;566&quot; data-origin-height=&quot;551&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cBVupt/btsITnk2d3f/HKgKxwZF5dDMIoyLfhTsNK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cBVupt/btsITnk2d3f/HKgKxwZF5dDMIoyLfhTsNK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cBVupt/btsITnk2d3f/HKgKxwZF5dDMIoyLfhTsNK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcBVupt%2FbtsITnk2d3f%2FHKgKxwZF5dDMIoyLfhTsNK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;566&quot; height=&quot;551&quot; data-origin-width=&quot;566&quot; data-origin-height=&quot;551&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table2&amp;nbsp;-&amp;gt;&amp;nbsp;영아들을&amp;nbsp;0~2개월,&amp;nbsp;3~5개월,&amp;nbsp;6~11개월&amp;nbsp;그룹으로&amp;nbsp;나누어&amp;nbsp;비교&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;하기도&amp;nbsp;감염(LRTI)가&amp;nbsp;모든&amp;nbsp;연령대에서&amp;nbsp;가장&amp;nbsp;흔하게&amp;nbsp;나타남.&amp;nbsp;&lt;br /&gt;-&amp;nbsp;무호흡&amp;nbsp;또는&amp;nbsp;서맥이&amp;nbsp;0~2개월&amp;nbsp;그룹에서&amp;nbsp;가장&amp;nbsp;흔함(20.7%)&lt;br /&gt;-&amp;nbsp;중환자실&amp;nbsp;재원&amp;nbsp;기간:&amp;nbsp;0-2개월&amp;nbsp;그룹이&amp;nbsp;가장&amp;nbsp;길었음&amp;nbsp;(중앙값&amp;nbsp;4일)&lt;br /&gt;-&amp;nbsp;중증도&amp;nbsp;점수:&amp;nbsp;0-2개월&amp;nbsp;그룹이&amp;nbsp;pSOFA와&amp;nbsp;PELOD-2&amp;nbsp;점수가&amp;nbsp;가장&amp;nbsp;높았음&lt;br /&gt;-&amp;nbsp;사망률:&amp;nbsp;전체적으로&amp;nbsp;낮음&amp;nbsp;(0.3%,&amp;nbsp;2명)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;569&quot; data-origin-height=&quot;575&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bi7z6C/btsIVL5Eh79/U02mWKyG3PSSJDtQYxPaj1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bi7z6C/btsIVL5Eh79/U02mWKyG3PSSJDtQYxPaj1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bi7z6C/btsIVL5Eh79/U02mWKyG3PSSJDtQYxPaj1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbi7z6C%2FbtsIVL5Eh79%2FU02mWKyG3PSSJDtQYxPaj1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;569&quot; height=&quot;575&quot; data-origin-width=&quot;569&quot; data-origin-height=&quot;575&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;Figure1은&amp;nbsp;RSV의&amp;nbsp;증상과&amp;nbsp;연령별&amp;nbsp;증상을&amp;nbsp;나타냄.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;813&quot; data-origin-height=&quot;561&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/6ZQSV/btsITi5axJx/oK64aAvD8MMjDTR2TPlBQK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/6ZQSV/btsITi5axJx/oK64aAvD8MMjDTR2TPlBQK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/6ZQSV/btsITi5axJx/oK64aAvD8MMjDTR2TPlBQK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F6ZQSV%2FbtsITi5axJx%2FoK64aAvD8MMjDTR2TPlBQK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;604&quot; height=&quot;417&quot; data-origin-width=&quot;813&quot; data-origin-height=&quot;561&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1121&quot; data-origin-height=&quot;594&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/IiFaX/btsITTqihs3/NDqDkIah1OcKFe6ebCT2W1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/IiFaX/btsITTqihs3/NDqDkIah1OcKFe6ebCT2W1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/IiFaX/btsITTqihs3/NDqDkIah1OcKFe6ebCT2W1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FIiFaX%2FbtsITTqihs3%2FNDqDkIah1OcKFe6ebCT2W1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1121&quot; height=&quot;594&quot; data-origin-width=&quot;1121&quot; data-origin-height=&quot;594&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;figure 2는 RSV 감염으로 중환자실에 입원한 영아들의 삽관 위험과 관련된 요인들을 보여주는 그래프입니다.&lt;br /&gt;아래의&amp;nbsp;데이터를&amp;nbsp;보면&amp;nbsp;&lt;b&gt;어린&amp;nbsp;연령일수록(3개월&amp;nbsp;미만)&lt;/b&gt;&amp;nbsp;RSV로&amp;nbsp;인한&amp;nbsp;중증&amp;nbsp;질환의&amp;nbsp;가장&amp;nbsp;중요한&amp;nbsp;위험&amp;nbsp;요인이&amp;nbsp;됩니다.&amp;nbsp;조산은&amp;nbsp;삽관&amp;nbsp;위험을&amp;nbsp;크게&amp;nbsp;증가시킵니다.&lt;br /&gt;공공 보험 가입 상태는 사회경제적 요인이 RSV 중증도에 영향을 미칠 수 있음을 시사합니다. 다른 RSV 연구에도 Medicated 보험 가입자의 RSV 발병률이 높다는 자료가 나옵니다. (&lt;a href=&quot;https://minyoungxi.tistory.com/125&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://minyoungxi.tistory.com/125&lt;/a&gt;)&lt;br /&gt;&lt;b&gt;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;삽관(invasive mechanical ventilation)&lt;/b&gt; 은 생명을 구하는 중요한 의료 처치이지만, 그 자체로 여러 위험과 합병증을 동반할 수 있습니다. 이 논문에서는 삽관의 위험성을 직접적으로 언급하지는 않았지만, 일반적으로 알려진 삽관의 위험성은 다음과 같습니다.&lt;br /&gt;- 기도 손상: 삽관 과정에서 성대나 기관지에 손상을 줄 수 있습니다.&lt;br /&gt;- 인공호흡기 관련 폐렴: 장기간 삽관 시 폐렴 발생 위험이 증가합니다.&lt;br /&gt;- 기흉: 폐에 과도한 압력이 가해져 폐가 찢어질 수 있습니다.&lt;br /&gt;- 혈역학적 변화: 흉강 내 압력 변화로 인해 심장 기능에 영향을 줄 수 있습니다.&lt;br /&gt;- 발달 지연: 특히 영아의 경우, 장기간의 삽관이 정상적인 발달에 영향을 줄 수 있습니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연령:&lt;br /&gt;-&amp;nbsp;0-3개월&amp;nbsp;영아는&amp;nbsp;6-12개월&amp;nbsp;영아에&amp;nbsp;비해&amp;nbsp;삽관&amp;nbsp;위험이&amp;nbsp;약&amp;nbsp;2배&amp;nbsp;높습니다&amp;nbsp;(aPR:&amp;nbsp;2.05,&amp;nbsp;95%&amp;nbsp;CI:&amp;nbsp;1.51-2.78).&lt;br /&gt;-&amp;nbsp;3-6개월&amp;nbsp;영아는&amp;nbsp;6-12개월&amp;nbsp;영아와&amp;nbsp;유의한&amp;nbsp;차이가&amp;nbsp;없습니다.&lt;br /&gt;&lt;br /&gt;재태&amp;nbsp;연령:&lt;br /&gt;-&amp;nbsp;23-30주&amp;nbsp;사이에&amp;nbsp;태어난&amp;nbsp;극도&amp;nbsp;미숙아는&amp;nbsp;만삭아에&amp;nbsp;비해&amp;nbsp;삽관&amp;nbsp;위험이&amp;nbsp;약&amp;nbsp;2배&amp;nbsp;높습니다&amp;nbsp;(aPR:&amp;nbsp;2.09,&amp;nbsp;95%&amp;nbsp;CI:&amp;nbsp;1.22-3.59).&lt;br /&gt;-&amp;nbsp;30-36주&amp;nbsp;사이에&amp;nbsp;태어난&amp;nbsp;미숙아도&amp;nbsp;만삭아에&amp;nbsp;비해&amp;nbsp;삽관&amp;nbsp;위험이&amp;nbsp;약&amp;nbsp;1.4배&amp;nbsp;높습니다&amp;nbsp;(aPR:&amp;nbsp;1.36,&amp;nbsp;95%&amp;nbsp;CI:&amp;nbsp;1.01-1.82).&lt;br /&gt;&lt;br /&gt;기저&amp;nbsp;질환:&lt;br /&gt;-&amp;nbsp;대부분의&amp;nbsp;&lt;b&gt;기저&amp;nbsp;질환&amp;nbsp;범주(호흡기,&amp;nbsp;심장&amp;nbsp;질환&amp;nbsp;등&lt;/b&gt;)는&amp;nbsp;삽관&amp;nbsp;위험과&amp;nbsp;유의한&amp;nbsp;관련이&amp;nbsp;없었습니다.&lt;br /&gt;-&amp;nbsp;단,&amp;nbsp;비호흡기&amp;nbsp;비심장&amp;nbsp;질환이&amp;nbsp;있는&amp;nbsp;경우&amp;nbsp;오히려&amp;nbsp;삽관&amp;nbsp;위험이&amp;nbsp;낮았습니다&amp;nbsp;(aPR:&amp;nbsp;0.19,&amp;nbsp;95%&amp;nbsp;CI:&amp;nbsp;0.05-0.74).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;565&quot; data-origin-height=&quot;323&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/treep/btsISW87cDh/IfbZjFdpBJzr2kI5QpkD0k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/treep/btsISW87cDh/IfbZjFdpBJzr2kI5QpkD0k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/treep/btsISW87cDh/IfbZjFdpBJzr2kI5QpkD0k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Ftreep%2FbtsISW87cDh%2FIfbZjFdpBJzr2kI5QpkD0k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;565&quot; height=&quot;323&quot; data-origin-width=&quot;565&quot; data-origin-height=&quot;323&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table3는&amp;nbsp;RSV로&amp;nbsp;중환자실에&amp;nbsp;입원한&amp;nbsp;영아들의&amp;nbsp;바이러스&amp;nbsp;공동&amp;nbsp;검출(Viral&amp;nbsp;codetection)과&amp;nbsp;세균성&amp;nbsp;동시감염(Bacterial&amp;nbsp;coinfection)에&amp;nbsp;대한&amp;nbsp;정보를&amp;nbsp;제공합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;RSV 감염 영아에서 &lt;b&gt;SARS-CoV-2나 인플루엔자&lt;/b&gt; 동시 감염은 매우 드물었습니다. (SARS-CoV-2는 COVID-19의 원인 바이러스입니다. 이 연구에서 SARS-CoV-2 검사를 수행한 이유는 COVID-19 팬데믹 기간 동안 다른 호흡기 바이러스와의 상호작용이나 동시 감염 가능성을 확인하기 위함입니다. )&lt;br /&gt;&lt;br /&gt;또한,&amp;nbsp;라이노바이러스/엔테로바이러스가&amp;nbsp;가장&amp;nbsp;흔한&amp;nbsp;동시&amp;nbsp;검출&amp;nbsp;바이러스였지만,&amp;nbsp;임상적&amp;nbsp;중요성은&amp;nbsp;불분명합니다.&amp;nbsp;세균성&amp;nbsp;동시감염,&amp;nbsp;특히&amp;nbsp;하기도&amp;nbsp;감염은&amp;nbsp;삽관된&amp;nbsp;영아에서&amp;nbsp;상당히&amp;nbsp;흔했습니다&amp;nbsp;(66.7%).&amp;nbsp;혈액과&amp;nbsp;요로의&amp;nbsp;세균&amp;nbsp;감염도&amp;nbsp;일부&amp;nbsp;영아에서&amp;nbsp;발견되었지만,&amp;nbsp;전반적인&amp;nbsp;빈도는&amp;nbsp;낮았습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;SARS-CoV-2(Severe Acute Respiratory Syndrome Coronavirus 2)&lt;/b&gt; : 코로나바이러스과의 베타코로나바이러스에 속합니다. RNA 바이러스로, 표면에 특징적인 스파이크 단백질을 가지고 있습니다. 대부분의 감염자는 경미한 증상을 보이지만, 일부에서는 중증 폐렴, 급성호흡곤란증후군(ARDS) 등 심각한 합병증을 일으킬 수 있습니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Summary&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;RSV의&amp;nbsp;심각성:&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;기저&amp;nbsp;질환이나&amp;nbsp;조산&amp;nbsp;이력이&amp;nbsp;중증&amp;nbsp;RSV&amp;nbsp;질환의&amp;nbsp;위험&amp;nbsp;요인이지만,&amp;nbsp;중환자실&amp;nbsp;치료를&amp;nbsp;받은&amp;nbsp;대부분의&amp;nbsp;영아들은&amp;nbsp;이전에&amp;nbsp;건강했고&amp;nbsp;만삭아였습니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;젊은&amp;nbsp;영아와&amp;nbsp;조산아가&amp;nbsp;삽관&amp;nbsp;위험이&amp;nbsp;더&amp;nbsp;높았지만,&amp;nbsp;삽관된&amp;nbsp;영아의&amp;nbsp;대부분은&amp;nbsp;만삭아였습니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;사망률은&amp;nbsp;낮았지만,&amp;nbsp;이&amp;nbsp;결과는&amp;nbsp;RSV가&amp;nbsp;미국&amp;nbsp;영아들에게&amp;nbsp;상당한&amp;nbsp;이환율을&amp;nbsp;야기함을&amp;nbsp;강조합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;COVID-19 팬데믹의 영향:&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;-&amp;nbsp;팬데믹&amp;nbsp;이전에는&amp;nbsp;RSV&amp;nbsp;감염의&amp;nbsp;계절성이&amp;nbsp;일관되었으나,&amp;nbsp;팬데믹&amp;nbsp;동안의&amp;nbsp;비약물적&amp;nbsp;개입(물리적&amp;nbsp;거리두기,&amp;nbsp;마스크&amp;nbsp;착용&amp;nbsp;등)으로&amp;nbsp;RSV와&amp;nbsp;다른&amp;nbsp;바이러스의&amp;nbsp;순환이&amp;nbsp;변경되었습니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;2020-2021&amp;nbsp;겨울&amp;nbsp;시즌&amp;nbsp;동안&amp;nbsp;RSV&amp;nbsp;전파가&amp;nbsp;거의&amp;nbsp;없었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;RSV의 재유행:&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;2021년&amp;nbsp;여름,&amp;nbsp;RSV가&amp;nbsp;계절&amp;nbsp;외에&amp;nbsp;재유행했으며,&amp;nbsp;중환자실에&amp;nbsp;입원하는&amp;nbsp;아동의&amp;nbsp;비율이&amp;nbsp;크게&amp;nbsp;증가했습니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;2022년&amp;nbsp;10월,&amp;nbsp;RSV&amp;nbsp;감염이&amp;nbsp;다시&amp;nbsp;정점을&amp;nbsp;찍었고,&amp;nbsp;RSV&amp;nbsp;관련&amp;nbsp;입원율이&amp;nbsp;팬데믹&amp;nbsp;이전&amp;nbsp;정점의&amp;nbsp;약&amp;nbsp;두&amp;nbsp;배에&amp;nbsp;달했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;RSV 예방의 중요성:&lt;/b&gt;&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;이&amp;nbsp;연구들은&amp;nbsp;&lt;b&gt;젊고&amp;nbsp;건강한&amp;nbsp;영아를&amp;nbsp;포함한&amp;nbsp;중증&amp;nbsp;RSV&amp;nbsp;질환에&amp;nbsp;대한&amp;nbsp;예방&amp;nbsp;조치의&amp;nbsp;필요성&lt;/b&gt;을&amp;nbsp;강조합니다.&lt;br /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;-&amp;nbsp;RSV&amp;nbsp;LRTI&amp;nbsp;예방은&amp;nbsp;급성&amp;nbsp;질병으로&amp;nbsp;인한&amp;nbsp;입원뿐만&amp;nbsp;아니라&amp;nbsp;천명/천식&amp;nbsp;재발&amp;nbsp;위험&amp;nbsp;증가나&amp;nbsp;조기&amp;nbsp;성인&amp;nbsp;사망&amp;nbsp;등의&amp;nbsp;장기적&amp;nbsp;결과에도&amp;nbsp;영향을&amp;nbsp;미칠&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Limitations &amp;amp; Conclusions&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본&amp;nbsp;연구는&amp;nbsp;각&amp;nbsp;병원에서&amp;nbsp;처음&amp;nbsp;15-20&amp;nbsp;명의&amp;nbsp;연속적인&amp;nbsp;RSV&amp;nbsp;사례만&amp;nbsp;포함하여&amp;nbsp;전체&amp;nbsp;RSV&amp;nbsp;중증&amp;nbsp;사례를&amp;nbsp;대표하지&amp;nbsp;않을&amp;nbsp;수도&amp;nbsp;있습니다.&amp;nbsp;또한&amp;nbsp;다른&amp;nbsp;연구들과&amp;nbsp;다르게&amp;nbsp;2개월간의&amp;nbsp;연구&amp;nbsp;기간이&amp;nbsp;전체&amp;nbsp;RSV&amp;nbsp;시즌을&amp;nbsp;포함하지&amp;nbsp;않습니다.&amp;nbsp;의무&amp;nbsp;기록&amp;nbsp;추출에&amp;nbsp;의존하여&amp;nbsp;데이터를&amp;nbsp;바라보았기&amp;nbsp;때문에&amp;nbsp;데이터&amp;nbsp;누락&amp;nbsp;가능성이&amp;nbsp;있습니다.&amp;nbsp;&lt;br /&gt;24시간&amp;nbsp;미만&amp;nbsp;중환자실&amp;nbsp;입원&amp;nbsp;영아를&amp;nbsp;제외하여&amp;nbsp;중증&amp;nbsp;RSV&amp;nbsp;감염&amp;nbsp;사례에&amp;nbsp;편향이&amp;nbsp;발생합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;RSV는&amp;nbsp;건강한&amp;nbsp;만삭아를&amp;nbsp;포함한&amp;nbsp;모든&amp;nbsp;영아에게&amp;nbsp;상당한&amp;nbsp;이환율을&amp;nbsp;야기합니다.&amp;nbsp;Palivizumab&amp;nbsp;접종&amp;nbsp;대상&amp;nbsp;영아&amp;nbsp;중&amp;nbsp;실제&amp;nbsp;접종률이&amp;nbsp;낮아,&amp;nbsp;모든&amp;nbsp;대상자가&amp;nbsp;적시에&amp;nbsp;접종받을&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;하는&amp;nbsp;노력이&amp;nbsp;필요합니다.&lt;br /&gt;COVID-19&amp;nbsp;팬데믹&amp;nbsp;동안의&amp;nbsp;경험은&amp;nbsp;비약물적&amp;nbsp;중재가&amp;nbsp;RSV를&amp;nbsp;포함한&amp;nbsp;호흡기&amp;nbsp;바이러스&amp;nbsp;전파&amp;nbsp;감소에&amp;nbsp;효과적임을&amp;nbsp;보여줍니다.&lt;/p&gt;</description>
      <category>Medical</category>
      <category>Medical</category>
      <category>RSV</category>
      <category>논문리뷰</category>
      <category>의료인공지능</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/128</guid>
      <comments>https://minyoungxi.tistory.com/128#entry128comment</comments>
      <pubDate>Mon, 5 Aug 2024 13:07:01 +0900</pubDate>
    </item>
    <item>
      <title>[Medical] - FSL로 fMRI 와 MRI 데이터를 분석해보자</title>
      <link>https://minyoungxi.tistory.com/127</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;FSL&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;FSL은 옥스퍼드 대학교의 FMRIB에서 개발한 소프트웨어 라이브러리로 , 뇌 이미지를 분석하는 데 사용됩니다. FSL은 MRI 데이터를 처리하고 분석하는 데 널리 사용되고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MRI 데이터를 처리하는 툴이나 소프트웨어는 선택할 수 있는 범위가 넓습니다. 예를 들어 fMRIprep , Freesurfer 와 같은 다양한 도구들이 있죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;FSL의 주요 구성 요소는 다음과 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;자세한 예시는 아래에서 볼 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- BET(Brain Extraction Tool) :&lt;/b&gt; 뇌를 포함하는 영역을 추출합니다. 그리고 MRI 이미지에서 두개골과 다른 비뇌 조직을 제거합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- FEAT(FMRI Expert Analysis Tool) :&lt;/b&gt; 기능적 MRI(fMRI) 데이터를 분석합니다. 시계열 분석과 통계적 매핑을 수행합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- FAST(FMRIB's Automated Segmentation Tool) :&lt;/b&gt; 뇌의 조직을 분할(회백질, 백질, 뇌척수액)하고 MRI 데이터에서 자동으로 조직 유형 식별&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- FLIRT(FMRIB's Linear Image Registration Tool) :&lt;/b&gt; 뇌 이미지를 서로 정렬하고 선형 이미지 등록을 수행하여 다른 뇌 이미지와 정렬&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- FNIRT(FMRIB's Non-Linear Image Registration Tool) :&lt;/b&gt; 비선형 이미지 등록(정합)을 수행합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;FSL 설치&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1722513295876&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;Document&quot; data-og-description=&quot;&quot; data-og-host=&quot;fsl.fmrib.ox.ac.uk&quot; data-og-source-url=&quot;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&quot; data-og-url=&quot;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&quot; data-og-image=&quot;&quot;&gt;&lt;a href=&quot;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://fsl.fmrib.ox.ac.uk/fsl/docs/#/install/index&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url();&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;Document&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;fsl.fmrib.ox.ac.uk&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;FSL 공식 문서를 보면 각 운영체제에 맞는 설치 방법이 자세하게 나와있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;설치는 어렵지 않으니 유튜브 영상을 시청하시거나 user guide를 참고하시면 쉽게 다운로드 받을 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://youtu.be/LgRZLev1LRw&quot;&gt;https://youtu.be/LgRZLev1LRw&lt;/a&gt;&lt;/p&gt;
&lt;figure data-ke-type=&quot;video&quot; data-ke-style=&quot;alignCenter&quot; data-video-host=&quot;youtube&quot; data-video-url=&quot;https://www.youtube.com/watch?v=LgRZLev1LRw&quot; data-video-thumbnail=&quot;https://scrap.kakaocdn.net/dn/c1Mj7q/hyWKGvLEjz/rVmxII3YF21w2mmU3bKoN1/img.jpg?width=1280&amp;amp;height=720&amp;amp;face=0_0_1280_720&quot; data-video-width=&quot;860&quot; data-video-height=&quot;484&quot; data-video-origin-width=&quot;860&quot; data-video-origin-height=&quot;484&quot; data-ke-mobilestyle=&quot;widthContent&quot; data-video-title=&quot;Installing FSL on macOS&quot; data-original-url=&quot;&quot;&gt;&lt;iframe src=&quot;https://www.youtube.com/embed/LgRZLev1LRw&quot; width=&quot;860&quot; height=&quot;484&quot; frameborder=&quot;&quot; allowfullscreen=&quot;true&quot;&gt;&lt;/iframe&gt;
&lt;figcaption style=&quot;display: none;&quot;&gt;&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;fMRI 와 MRI ??&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;fMRI(기능적 자기공명영상)&lt;/b&gt;와&lt;b&gt; MRI(자기공명영상)&lt;/b&gt;는 모두 자기장과 전파를 이용하여 인체 내부를 촬영하는 의료 영상 기술입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MRI는 주로 &lt;b&gt;해부학적 구조를 관찰&lt;/b&gt;하는 데 사용되며, 연조직의 상세한 이미지를 제공합니다. 고해상도로 뇌, 척추, 관절 등의 구조를 볼 수 있어 다양한 질병 진단에 활용됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;반면 fMRI는 MRI 기술을 기반으로 하지만, 뇌 활동을 실시간으로 관찰하는 데 특화되어 있습니다. fMRI는 뇌의 특정 부위가 활성화될 때 발생하는 &lt;b&gt;혈류 변화를 감지하여 뇌 기능을 매핑&lt;/b&gt;합니다. 이를 통해 인지 과정, 감정 반응, 의사결정 등 다양한 뇌 기능을 연구할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MRI가 정적인 이미지를 제공한다면,&lt;b&gt; fMRI는 시간에 따른 뇌 활동의 변화&lt;/b&gt;를 보여줍니다. fMRI는 신경과학 연구, 정신질환 진단, 뇌-컴퓨터 인터페이스 개발 등 다양한 분야에서 활용되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;두 기술 모두 비침습적이며 방사선 노출이 없어 안전하다는 장점이 있지만, fMRI는 MRI에 비해 시간 해상도가 낮고 노이즈에 더 취약할 수 있습니다. 또한 fMRI 데이터의 해석에는 복잡한 통계 분석이 필요하며, 결과 해석 시 주의가 필요합니다. 종합적으로, MRI와 fMRI는 상호 보완적인 기술로, 함께 사용될 때 뇌의 구조와 기능에 대한 포괄적인 이해를 제공할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 그림을 보면 fMRI 데이터는 여러 장의 뇌 이미지로 구성이 되어있죠 ?&amp;nbsp;&lt;br /&gt;이는 시간 포인트에 따라 찍혀서 그렇습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실제로 데이터의 구조를 print 해보면 4차원 데이터로 구성이 되어 있고, 마지막 정보가 Time point를 담고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;261&quot; data-origin-height=&quot;193&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cwPjzF/btsIReaU7eN/2736U6UGebgqvDP5qBlXkK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cwPjzF/btsIReaU7eN/2736U6UGebgqvDP5qBlXkK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cwPjzF/btsIReaU7eN/2736U6UGebgqvDP5qBlXkK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcwPjzF%2FbtsIReaU7eN%2F2736U6UGebgqvDP5qBlXkK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;533&quot; height=&quot;394&quot; data-origin-width=&quot;261&quot; data-origin-height=&quot;193&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;반면 MRI 의 경우 일반적으로 많이 봐왔던 그런 뇌의 모습이죠?&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;320&quot; data-origin-height=&quot;320&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bVFge5/btsISJgJf4H/GclxOKcjtn9zKpsSYCiumK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bVFge5/btsISJgJf4H/GclxOKcjtn9zKpsSYCiumK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bVFge5/btsISJgJf4H/GclxOKcjtn9zKpsSYCiumK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbVFge5%2FbtsISJgJf4H%2FGclxOKcjtn9zKpsSYCiumK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;320&quot; height=&quot;320&quot; data-origin-width=&quot;320&quot; data-origin-height=&quot;320&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저는 OASIS-3 데이터의 접근 권한을 신청해서 해당 데이터로 실습을 진행했는데요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터를 다운받을 때 설정할 수 있는 요소들이 굉장히 많습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그 중에서 Scan caategory를 T1w 와 BOLD를 선택했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적으로 MRI 데이터를 &lt;b&gt;&quot;structural&quot; 또는 구조적 데이터&lt;/b&gt;라고 부르는 경우가 많습니다. 이는 MRI가 주로 뇌의 해부학적 구조를 보여주기 때문이라고 합니다. &lt;b&gt;T1 강조 영상(T1-weighted imaging, T1w)&lt;/b&gt;은 indeed MRI의 한 종류입니다. T1w는 뇌의 회백질과 백질을 잘 구분할 수 있어 뇌의 구조적 특징을 관찰하는 데 주로 사용됩니다. 이는 항상 MRI 데이터의 일종이며, 'structural MRI'라고 불리는 것들 중 가장 흔한 유형입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;BOLD(Blood Oxygen Level Dependent)&lt;/b&gt; 신호는 fMRI에서 사용되는 주요 측정 방식입니다. BOLD 신호는 뇌의 활성화된 영역에서 발생하는 혈류 변화를 감지하여 뇌 기능을 간접적으로 측정합니다. 따라서 BOLD 데이터는 항상 fMRI와 관련이 있습니다.&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;FSL 사용 방법&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;FSL을 설치했다면, 어떻게 실행하고 사용하는지 알아봐야겠죠?&amp;nbsp;&lt;br /&gt;FSL은 아래의 이미지처럼 주로 명령줄에서 실행되는 툴이지만, python과 같은 프로그래밍 언어를 사용하여 FSL의 기능을 스크립팅하고 자동화할 수 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;447&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/OhO1k/btsISHwzR0y/wTIUrHBIzzIdPbLbQtBLtk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/OhO1k/btsISHwzR0y/wTIUrHBIzzIdPbLbQtBLtk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/OhO1k/btsISHwzR0y/wTIUrHBIzzIdPbLbQtBLtk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FOhO1k%2FbtsISHwzR0y%2FwTIUrHBIzzIdPbLbQtBLtk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1024&quot; height=&quot;447&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;447&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;BET(Brain Extraction Tool)&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어 BET(Brain Extraction Tool)을 사용한다면 아래의 명령어를 통해 실행할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 명령은 input_image.nii.gz라는 입력 이미지에서 뇌를 추출하고 결과를 output_image.nii.gz 파일에 저장합니다.&lt;/p&gt;
&lt;pre id=&quot;code_1722513629033&quot; class=&quot;bash&quot; data-ke-language=&quot;bash&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;bet input_image.nii.gz output_image.nii.gz&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;혹은 파이썬을 사용하여 FSL 도구를 실행할 수 있는데요, 그러기 위해서는 subprocess 모듈을 사용해야 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 통해 명령줄 명령을 파이썬 코드 내에서 실행할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Nipype라는 모듈을 통해 Nipype에서 불러오는 FSL을 사용할 수 있지만, 기능이 제한적이라서 이 방법을 추천드립니다.&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1722513885829&quot; class=&quot;bash&quot; data-ke-language=&quot;bash&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;bet_output = os.path.join(output_dir, &quot;bet_output&quot;)
bet_command = f&quot;bet {fmri_file} {bet_output} -F -f 0.3 -m&quot;
subprocess.run(bet_command, shell=True, check=True)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;'bet_command'에 할당된 명령어는 'fmri_file'이라는 입력 fMRI의 파일 경로입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;뒤에 붙어있는 '-F' 명령어는 fMRI의 첫 번째 시간 볼륨의 데이터에 BET를 적용하겠다는 옵션입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 '-f' 옵션은 프랙셔널 강도 임계값을 결정하는 옵션인데요, 0~1 사이로 설정이 가능하고 값이 높을수록 엄격하게 비뇌 영역을 제거 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;'-m' 옵션은 뇌 마스크를 이미지로 저장하도록 하는 옵션입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제가 직접 BET를 적용하고 mask를 가져왔는데요, 뇌의 대부분의 영역이 포함된 것으로 나타나고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-m 옵션을 사용했을 경우에만 아래처럼 나타나는 것이죠.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bsHiQ7/btsIS6Qmc5X/PuiyEeYWmd0o0h0IoVDdK0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bsHiQ7/btsIS6Qmc5X/PuiyEeYWmd0o0h0IoVDdK0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bsHiQ7/btsIS6Qmc5X/PuiyEeYWmd0o0h0IoVDdK0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbsHiQ7%2FbtsIS6Qmc5X%2FPuiyEeYWmd0o0h0IoVDdK0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;795&quot; height=&quot;405&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 -F 옵션을 사용했기 때문에 첫 번째 타임 포인트의 MRI 데이터만 BET된 것을 아래에서 확인할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cUHWHN/btsIRf1Ynk5/JAVwQc82b6gLJHcmkzXk3K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cUHWHN/btsIRf1Ynk5/JAVwQc82b6gLJHcmkzXk3K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cUHWHN/btsIRf1Ynk5/JAVwQc82b6gLJHcmkzXk3K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcUHWHN%2FbtsIRf1Ynk5%2FJAVwQc82b6gLJHcmkzXk3K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;795&quot; height=&quot;405&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;MNI Space ( FLIRT , FNIRT )&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 코드는 위에서 언급한 BET에 이어서 이뤄집니다. pipeline 형태로 구성했기 때문에 파일 혹은 변수명이 일부 중복될 수 있습니다.&lt;/p&gt;
&lt;pre id=&quot;code_1722516539049&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;func_to_mni_img = nib.load(func_to_mni)
if len(func_to_mni_img.shape) == 4:
    func_to_mni_data = func_to_mni_img.slicer[..., 0]
else:
    func_to_mni_data = func_to_mni_img
fig, ax = plt.subplots(1, 1, figsize=(10, 5))
plotting.plot_epi(func_to_mni_data, display_mode='z', cut_coords=5, title=&quot;fMRI in MNI Space&quot;, axes=ax)
plt.show()

# 4. 구조적 공간으로 변환된 fMRI 데이터 시각화
func_to_struct_img = nib.load(func_to_struct)
if len(func_to_struct_img.shape) == 4:
    func_to_struct_data = func_to_struct_img.slicer[..., 0]
else:
    func_to_struct_data = func_to_struct_img
fig, ax = plt.subplots(1, 1, figsize=(10, 5))
plotting.plot_epi(func_to_struct_data, display_mode='z', cut_coords=5, title=&quot;fMRI in Structural Space&quot;, axes=ax)
plt.show()&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MNI Space는 뇌 이미징 연구에서 핵심적인 개념으로, 다양한 피험자의 뇌 데이터를 표준화된 좌표 시스템에 맞춰 비교 분석할 수 있게 해줍니다.&amp;nbsp; Montreal Neurological Institute에서 개발된 이 공간은 x, y, z 축으로 구성된 3D 좌표 시스템을 사용하며, MNI152와 같은 표준 템플릿을 기반으로 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;fMRI 데이터를&lt;b&gt; MNI 공간으로 변환하기 위해서는 FSL의 FLIRT나 FNIRT 같은 도구&lt;/b&gt;를 사용한 공간 정규화 기술이 필요합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 과정에서 개별 피험자의 뇌 구조 차이를 보정하여 &lt;b&gt;일관된 비교가 가능해집니다. &lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제시된 코드에서는 MNI 공간으로 변환된 fMRI 데이터를 다루고 있으며, 이를 시각화하기 위해 Nilearn의 plotting 모듈을 사용하고 있습니다. fMRI 데이터는 일반적으로 4D (x, y, z, time) 형식이므로, 단일 시간점의 3D 데이터를 추출하는 과정이 포함되어 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한, NIfTI (.nii) 파일 형식을 다루기 위해 &lt;b&gt;nibabel 라이브러리&lt;/b&gt;를 사용하고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MNI 공간 외에도 구조적 공간으로 변환된 fMRI 데이터를 다루고 있는데, 이는 개인의 해부학적 구조에 맞춘 분석이 필요할 때 유용합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;MNI 공간을 활용한 fMRI 데이터 분석은 개인 간 비교, 그룹 분석, 특정 뇌 영역의 기능 연구 등 다양한 신경과학 연구에 필수적인 도구로 사용되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dke9Sf/btsITVN6jc5/NkNj3mT6gAyXG83FaUEWZk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dke9Sf/btsITVN6jc5/NkNj3mT6gAyXG83FaUEWZk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dke9Sf/btsITVN6jc5/NkNj3mT6gAyXG83FaUEWZk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fdke9Sf%2FbtsITVN6jc5%2FNkNj3mT6gAyXG83FaUEWZk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;795&quot; height=&quot;405&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dzVXzb/btsIRmNBlrH/vSr8DR57SntKUuGYYbZuq1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dzVXzb/btsIRmNBlrH/vSr8DR57SntKUuGYYbZuq1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dzVXzb/btsIRmNBlrH/vSr8DR57SntKUuGYYbZuq1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdzVXzb%2FbtsIRmNBlrH%2FvSr8DR57SntKUuGYYbZuq1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;795&quot; height=&quot;405&quot; data-origin-width=&quot;795&quot; data-origin-height=&quot;405&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <category>fMRI</category>
      <category>FSL</category>
      <category>Medical</category>
      <category>뇌</category>
      <category>뇌이미지</category>
      <category>의료AI</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/127</guid>
      <comments>https://minyoungxi.tistory.com/127#entry127comment</comments>
      <pubDate>Thu, 1 Aug 2024 21:51:25 +0900</pubDate>
    </item>
    <item>
      <title>[Deep Learning &amp;amp; Machine Learning] Batch Iterator 만들어보자</title>
      <link>https://minyoungxi.tistory.com/126</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Batch Iteration&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;배치 반복(Batch Iteration)&lt;/b&gt;은 머신 러닝 및 데이터 처리에서 대용량 데이터 세트를 보다 효율적으로 처리하기 위해 사용되는 스킬입니다. 메모리 집약적일 수 있는 전체 데이터 세트를 한 번에 처리하는 대신, 데이터는 더 작고 관리하기 쉬운 배치로 처리됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; Batch Iterator(배치 반복자)&lt;/b&gt;를 만드는 단계별 방법은 아래와 같습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- 샘플 수 결정(Dtermine the Number of Samples)&lt;/b&gt; : 데이터 세트의 총 샘플 수를 계산합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; - 배치로 반복(Iterate in Batches)&lt;/b&gt; : 지정된 배치 크기 단위로 데이터 세트를 반복합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;- 배치 생성(Yield Batches)&lt;/b&gt; : 각 반복에서 X에서 샘플 배치를 생성하고, 만약 제공된 경우 y에서 해당 샘플을 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한 방법은 효율적인 처리를 보장하고 머신 러닝 워크 플로우의 학습 및 평가 단계에 모두 사용할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1722495334747&quot; class=&quot;python custom-cursor-default-hover&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;import numpy as np

X = np.array([[1, 2], 
                  [3, 4], 
                  [5, 6], 
                  [7, 8], 
                  [9, 10]])

y = np.array([1,2,3,4,5])&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1722495346977&quot; class=&quot;python custom-cursor-default-hover&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;def batch_iterator(X, y=None, batch_size=None):
    n_samples = X.shape[0]
    batches = []
    for i in range(0, n_samples, batch_size):
        begin, end = i, min(i+batch_size, n_samples)
        print(begin, end)

        if y is not None:
            batches.append([X[begin:end], y[begin:end]])

        else:
            batches.append(X[begin:end])    
        
        print(batches)

    return batches
    
 batch_iterator(X,y,batch_size=64)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Data science/Machine Learning basic</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/126</guid>
      <comments>https://minyoungxi.tistory.com/126#entry126comment</comments>
      <pubDate>Thu, 1 Aug 2024 15:56:55 +0900</pubDate>
    </item>
    <item>
      <title>RSV(호흡기세포융합바이러스)를 연구해보자! - 미국 데이터로 알아보는 RSV와 Bronchiolitis</title>
      <link>https://minyoungxi.tistory.com/125</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;3개월 전 다른 연구실 교수님의 요청으로 &lt;b&gt;한국의 RSV와 인플루엔자&lt;/b&gt;에 대해 저희 연구실과 공동연구를 제안하였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연구 관련된 논문을 하나 보내주셔서 해당 논문의 분석 기법을 공부하고 킥오프 미팅을 마쳤죠. 한국에서 RSV에 관련된 연구를 수행하기 위해서는 이 질병과 관련된 데이터가 필요하기에 건강보험공단의 데이터 사용을 위해 신청 후 대기 중인 상태입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;(건보 데이터는 직접 추출하기 위해서 원주까지 가야함..)&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;무한 대기 중인 상태인데, 연구책임자이신 교수님께서 Group knowledge 증진을 위해 Research Study를 제안하셨습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;늘 그렇듯 이런 일정이 잡히면 말단인 저는 보내주신 논문을 읽고 정리하고 준비를 해야합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이왕 준비하는 김에 읽었던 논문과 몰랐던 메디컬 지식을 공유합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RSV는 매년 겨울철에 감염이 증가하는 경향이 있습니다. 현재 RSV에 대한 특별한 항바이러스제는 없지만 감염 예방을 위해 단일클론항체인 팔리비주맙(Palivizumab)을 사용할 수 있다고 합니다. 한국에서는 2020년 COVID-19 팬데믹 동안 RSV 발병율이 일시적으로 감소했습니다. 사회적 거리두기 덕분이었죠. 하지만 이후 RSV 발병률이 다시 증가하고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2023년 질병관리청(KDCA)에 따르면 2023년 초부터 RSV 감염이 급증하였으며, 특히 영유아 사이에서 많이 발생했습니다. 많은 소아과 병원에서 RSV 환자가 증가하며 의료 시스템에 부담이 가중되었다는 소식을 들었습니다. 성인들은 사실 일반적인 감기와 비슷한 증상을 겪고 끝나지만, 영유아나 면역력이 약한 사람들, 노인들에게는 심각한 질병을 초래할 수 있는 호흡기 바이러스입니다.&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;참고논문&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Mortality&amp;nbsp;Associated&amp;nbsp;With&amp;nbsp;Influenza&amp;nbsp;and&amp;nbsp;Respiratory&amp;nbsp;Syncytial&amp;nbsp;Virus&amp;nbsp;in&amp;nbsp;the&amp;nbsp;US,&amp;nbsp;1999-2018&lt;br /&gt;&lt;a href=&quot;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&quot;&gt;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1721136034171&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;Article&quot; data-og-title=&quot;Mortality Associated With Influenza and RSV in the US, 1999-2018&quot; data-og-description=&quot;This cross-sectional study uses data from 50.3 million US death certificates to evaluate excess mortality from respiratory syncytial virus (RSV) and influenza from 1999 to 2018.&quot; data-og-host=&quot;jamanetwork.com&quot; data-og-source-url=&quot;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&quot; data-og-url=&quot;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/bpfRtW/hyWCKLOyqy/JKodZrjK6Dx6YRo78jTHS0/img.png?width=1438&amp;amp;height=1209&amp;amp;face=0_0_1438_1209,https://scrap.kakaocdn.net/dn/oqhur/hyWCLqpGke/eYuXx47P9bFNshTOkThvrK/img.png?width=1957&amp;amp;height=1284&amp;amp;face=0_0_1957_1284,https://scrap.kakaocdn.net/dn/bzptzV/hyWCGbyMLu/p12vdQoVDJk1swppKGsP91/img.png?width=2158&amp;amp;height=1604&amp;amp;face=0_0_2158_1604,https://scrap.kakaocdn.net/dn/sy5t7/hyWCFRgxqr/KJBbRCXHl4FBaIyxECQmzk/img.png?width=1438&amp;amp;height=1209&amp;amp;face=0_0_1438_1209&quot;&gt;&lt;a href=&quot;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2789446&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/bpfRtW/hyWCKLOyqy/JKodZrjK6Dx6YRo78jTHS0/img.png?width=1438&amp;amp;height=1209&amp;amp;face=0_0_1438_1209,https://scrap.kakaocdn.net/dn/oqhur/hyWCLqpGke/eYuXx47P9bFNshTOkThvrK/img.png?width=1957&amp;amp;height=1284&amp;amp;face=0_0_1957_1284,https://scrap.kakaocdn.net/dn/bzptzV/hyWCGbyMLu/p12vdQoVDJk1swppKGsP91/img.png?width=2158&amp;amp;height=1604&amp;amp;face=0_0_2158_1604,https://scrap.kakaocdn.net/dn/sy5t7/hyWCFRgxqr/KJBbRCXHl4FBaIyxECQmzk/img.png?width=1438&amp;amp;height=1209&amp;amp;face=0_0_1438_1209');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;Mortality Associated With Influenza and RSV in the US, 1999-2018&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;This cross-sectional study uses data from 50.3 million US death certificates to evaluate excess mortality from respiratory syncytial virus (RSV) and influenza from 1999 to 2018.&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;jamanetwork.com&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Mortality&amp;nbsp;Among&amp;nbsp;US&amp;nbsp;Infants&amp;nbsp;and&amp;nbsp;Children&amp;nbsp;Under&amp;nbsp;5&amp;nbsp;Years&amp;nbsp;of&amp;nbsp;Age&amp;nbsp;with&amp;nbsp;Respiratory&amp;nbsp;Syncytial&amp;nbsp;Virus&amp;nbsp;and&amp;nbsp;Bronchiolitis&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a title=&quot;Mortality Among US Infants and Children Under 5 Years of Age with Respiratory Syncytial Virus and Bronchiolitis&quot; href=&quot;https://pubmed.ncbi.nlm.nih.gov/35968871/&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://pubmed.ncbi.nlm.nih.gov/35968871/&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1721136051581&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;Mortality Among US Infants and Children Under 5 Years of Age with Respiratory Syncytial Virus and Bronchiolitis: A Systematic Li&quot; data-og-description=&quot;RSV mortality reported among US infants and children is variable. Current, nationally representative estimates are needed for otherwise healthy, late-preterm to full-term infants and children.&quot; data-og-host=&quot;pubmed.ncbi.nlm.nih.gov&quot; data-og-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968871/&quot; data-og-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968871/&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/lvD59/hyWCImUXcP/RbNOkcDvq6T7jA9KYKp2c1/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/bjJAZr/hyWCFcFGaX/Akon3EGN9HtxGkwEvECwak/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414&quot;&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/35968871/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968871/&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/lvD59/hyWCImUXcP/RbNOkcDvq6T7jA9KYKp2c1/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/bjJAZr/hyWCFcFGaX/Akon3EGN9HtxGkwEvECwak/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;Mortality Among US Infants and Children Under 5 Years of Age with Respiratory Syncytial Virus and Bronchiolitis: A Systematic Li&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;RSV mortality reported among US infants and children is variable. Current, nationally representative estimates are needed for otherwise healthy, late-preterm to full-term infants and children.&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;pubmed.ncbi.nlm.nih.gov&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #212121; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;Respiratory Syncytial Virus Burden and Healthcare Utilization in United States Infants &amp;lt;1 Year of Age: Study of Nationally Representative Databases, 2011-2019&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/35968879/&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://pubmed.ncbi.nlm.nih.gov/35968879/&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1721136086479&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;Respiratory Syncytial Virus Burden and Healthcare Utilization in United States Infants &amp;lt;1 Year of Age: Study of Nationally Repre&quot; data-og-description=&quot;This study highlights the importance of ensuring access to RSV preventive measures for all infants.&quot; data-og-host=&quot;pubmed.ncbi.nlm.nih.gov&quot; data-og-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968879/&quot; data-og-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968879/&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/mgOH5/hyWCErhntq/goMZ2n82YLWckMwM8qWpJ0/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/mwgYD/hyWCE5TOB9/Sq9Tcq6hRipkdLdtW40onk/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414&quot;&gt;&lt;a href=&quot;https://pubmed.ncbi.nlm.nih.gov/35968879/&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://pubmed.ncbi.nlm.nih.gov/35968879/&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/mgOH5/hyWCErhntq/goMZ2n82YLWckMwM8qWpJ0/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414,https://scrap.kakaocdn.net/dn/mwgYD/hyWCE5TOB9/Sq9Tcq6hRipkdLdtW40onk/img.jpg?width=1600&amp;amp;height=830&amp;amp;face=427_272_557_414');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;Respiratory Syncytial Virus Burden and Healthcare Utilization in United States Infants &amp;lt;1 Year of Age: Study of Nationally Repre&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;This study highlights the importance of ensuring access to RSV preventive measures for all infants.&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;pubmed.ncbi.nlm.nih.gov&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Terms&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;호흡기세포융합바이러스(RSV) :&amp;nbsp;&lt;/b&gt; &amp;lsquo;호흡기세포융합바이러스(Respiratory Syncytial Virus, RSV)&amp;rsquo;는 일반적으로 감기와 유사한 증상을 나타내는 급성 호흡기 감염 바이러스입니다. 대부분의 사람은 1~2주 안에 회복되지만, 영유아와 노인에게 특히 증상이 심각할 수 있습니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;late-preterm/full-term&amp;nbsp;:&lt;/b&gt;&amp;nbsp;조산아/만삭아&lt;br /&gt;&amp;gt; 조산아 기준은 재태 기간 37주 미만 또는 최종 월경일로부터 259일 미만에 태어난 아기를 미숙아 또는 조산아라고 부릅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;ACB(All-Cause&amp;nbsp;Bronchiolitis)&amp;nbsp;&lt;/b&gt;:&amp;nbsp;ACB는&amp;nbsp;'전체&amp;nbsp;원인&amp;nbsp;세기관지염'을&amp;nbsp;의미합니다.&lt;br /&gt;&lt;b&gt;세기관지염&lt;/b&gt;(Bronchiolitis)은 소아의 하기도 감염으로 다양한 바이러스에 의해서 발생 가능합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;CFR(Case&amp;nbsp;Fatality&amp;nbsp;Ratio):&amp;nbsp;&lt;/b&gt;CFR은 '치명률' 혹은 '사례치명률'이라고 함. 특정 질병에 걸린 사람들 중 그 질병으로 인해 사망한 사람들의 비율을 나타냅니다.&lt;br /&gt;&amp;nbsp; &amp;nbsp;CFR(%) = (특정 질병으로 인한 사망자 수 / 해당 질병에 걸린 총 환자 수) x 100&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Research&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;'&lt;/i&gt;&lt;span style=&quot;background-color: #ffffff; color: #212121; text-align: start;&quot;&gt;&lt;i&gt;Respiratory Syncytial Virus Burden and Healthcare Utilization in United States Infants &amp;lt;1 Year of Age: Study of Nationally Representative Databases, 2011-2019'&lt;/i&gt; 논문의 내용을 먼저 보겠습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;RSV는 미국의 영아(1세 미만) 입원의 주요 원인이지만, 연구는 특정 인구 집단에 집중되어 진행되었다고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 연구에서 사용한 데이터는 NIS(National Impatient Sample)와 NEDS 데이터를 사용합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;'RSV 입원(RSVH) , 세기관지염 입원(BH), 응급실 방문 건수, 전체 입원 / 방문 대비 비율, 출생 1000명당 비율과 입원 사망률, 기계 환기 사용, 총 비용' 등&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;연간&amp;nbsp;평균&lt;b&gt;&amp;nbsp;RSVH&amp;nbsp;및&amp;nbsp;RSV&amp;nbsp;응급실&amp;nbsp;방문은&lt;/b&gt;&amp;nbsp;각각&amp;nbsp;&lt;b&gt;56,927건&lt;/b&gt;(범위&amp;nbsp;43,845&amp;ndash;66,155)과&amp;nbsp;&lt;b&gt;131,999건&lt;/b&gt;(범위 89,809&amp;ndash;177,680)이었습니다. RSVH 비율은 시간에 따라 일정했지만(P = .5), 응급실 방문 비율은 증가했습니다(P = .004).&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;2011년부터&amp;nbsp;2019년까지&amp;nbsp;메디케이드&amp;nbsp;영아가&amp;nbsp;가장&amp;nbsp;높은&amp;nbsp;평균&amp;nbsp;비율을&amp;nbsp;보였습니다:&lt;br /&gt;&amp;bull; RSVH: 1,000명당 22.3건(95% 신뢰구간 21.5&amp;ndash;23.1)&lt;br /&gt;&amp;bull;&amp;nbsp;응급실&amp;nbsp;방문:&amp;nbsp;1,000명당&amp;nbsp;55.9건(95%&amp;nbsp;신뢰구간&amp;nbsp;52.4&amp;ndash;59.4)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 민간 보험이나 기타/미상 보험을 가진 영아와 비교했을 때 유의미하게 높았습니다 (RSVH: P &amp;lt; .0001; 응급실 방문: P &amp;lt; .0001). 2011년부터 2019년까지 모든 인종과 민족에서 메디케이드 영아는 민간 또는 기타/미상 보험을 가진 영아에 비해 최대 7배 높은 평균 RSVH 비율을 보였습니다. RSVH 사망률은 시간에 따라 일정했지만(P = .8), 기계 환기 사용(2019년: RSVH의 13%, P &amp;lt; .0001)과 평균 입원 비용(2019년: $21,513, P &amp;lt; .0001)은 증가했습니다. 세기관지염 패턴도 유사했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;2011-2019년&amp;nbsp;동안의&amp;nbsp;&lt;b&gt;RSV(A)&amp;nbsp;및&amp;nbsp;세기관지염(B)&amp;nbsp;입원&amp;nbsp;비율과&amp;nbsp;출생&amp;nbsp;1,000명당&amp;nbsp;입원율&lt;/b&gt;. 두 그래프 모두 입원 비율과 입원율이 큰 변동 없이 유지되는 모습입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;A - RSV 입원 비율과 입원율이 연도별로 큰 변화 없이 비교적 일정한 추세 - 왼쪽 Y축: 전체 영아 입원 중 RSV 입원 비율(%) - 오른쪽 Y축: 출생 1,000명당 RSV 입원율&lt;br /&gt;&lt;br /&gt;B - 세기관지염 입원 비율과 입원율도 RSV와 유사한 패턴&lt;/blockquote&gt;
&lt;p&gt;&lt;figure class=&quot;imagegridblock&quot;&gt;
  &lt;div class=&quot;image-container&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/YMj24/btsIBnMbzd9/hwzGdRODIChM8gHORLexE0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/YMj24/btsIBnMbzd9/hwzGdRODIChM8gHORLexE0/img.png&quot; data-is-animation=&quot;false&quot; data-origin-width=&quot;1552&quot; data-origin-height=&quot;946&quot; data-filename=&quot;스크린샷 2024-07-15 08.59.15.png&quot; style=&quot;width: 51.7102%; margin-right: 10px;&quot; data-widthpercent=&quot;52.32&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/YMj24/btsIBnMbzd9/hwzGdRODIChM8gHORLexE0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYMj24%2FbtsIBnMbzd9%2FhwzGdRODIChM8gHORLexE0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1552&quot; height=&quot;946&quot;/&gt;&lt;/span&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/XmjXd/btsIAO4NQXC/poS9LKt4DYKLaLgcQzNFVk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/XmjXd/btsIAO4NQXC/poS9LKt4DYKLaLgcQzNFVk/img.png&quot; data-is-animation=&quot;false&quot; data-origin-width=&quot;1552&quot; data-origin-height=&quot;1038&quot; data-filename=&quot;스크린샷 2024-07-15 08.59.24.png&quot; style=&quot;width: 47.127%;&quot; data-widthpercent=&quot;47.68&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/XmjXd/btsIAO4NQXC/poS9LKt4DYKLaLgcQzNFVk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FXmjXd%2FbtsIAO4NQXC%2FpoS9LKt4DYKLaLgcQzNFVk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1552&quot; height=&quot;1038&quot;/&gt;&lt;/span&gt;&lt;/div&gt;
  &lt;figcaption&gt;A , B&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;매년 응급실 방문율이 증가하는 추세&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1228&quot; data-origin-height=&quot;1532&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/obkXW/btsIBjXt6yy/k2mBxoOlLGhOw2vouP3wfk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/obkXW/btsIBjXt6yy/k2mBxoOlLGhOw2vouP3wfk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/obkXW/btsIBjXt6yy/k2mBxoOlLGhOw2vouP3wfk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FobkXW%2FbtsIBjXt6yy%2Fk2mBxoOlLGhOw2vouP3wfk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;462&quot; height=&quot;576&quot; data-origin-width=&quot;1228&quot; data-origin-height=&quot;1532&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;모든 인종과 민족에서 메디케이드 영아는 민간 또는 기타/미상 보험을 가진 영아에 비해 최대 7배 높은 평균 RSVH 비율을 보였습니다.&lt;br /&gt;&lt;br /&gt;Medicaid&amp;nbsp;보험을&amp;nbsp;가진&amp;nbsp;영아들이&amp;nbsp;RSV와&amp;nbsp;Bronchiolitis으로&amp;nbsp;인한&amp;nbsp;응급실&amp;nbsp;방문의&amp;nbsp;대부분을&amp;nbsp;차지합니다.&amp;nbsp;&lt;br /&gt;-&lt;b&gt;&amp;nbsp;RSV&amp;nbsp;와&amp;nbsp;Bronchiolitis&lt;/b&gt;&amp;nbsp;모두&amp;nbsp;유사한&amp;nbsp;패턴을&amp;nbsp;보이고&amp;nbsp;있으며&amp;nbsp;출생&amp;nbsp;1000명당&amp;nbsp;응급실&amp;nbsp;방문율이&amp;nbsp;다른&amp;nbsp;보험&amp;nbsp;유형에&amp;nbsp;비해&amp;nbsp;현저히&amp;nbsp;높습니다.&amp;nbsp;&lt;br /&gt;-&amp;nbsp;Medicaid&amp;nbsp;보험을&amp;nbsp;가진&amp;nbsp;영아들의&amp;nbsp;RSV&amp;nbsp;및&amp;nbsp;세기관지염&amp;nbsp;관련&amp;nbsp;의료&amp;nbsp;서비스&amp;nbsp;이용이&amp;nbsp;다른&amp;nbsp;보험&amp;nbsp;유형에&amp;nbsp;비해&amp;nbsp;훨씬&amp;nbsp;높다는&amp;nbsp;것을&amp;nbsp;명확히&amp;nbsp;보여주며,&amp;nbsp;이는&amp;nbsp;이들을&amp;nbsp;위한&amp;nbsp;특별한&amp;nbsp;예방&amp;nbsp;및&amp;nbsp;관리&amp;nbsp;전략의&amp;nbsp;필요성을&amp;nbsp;강조합니다.&lt;br /&gt;-&amp;nbsp;&lt;b&gt;Medicaid&amp;nbsp;보험은&amp;nbsp;저소득&amp;nbsp;가정을&amp;nbsp;위한&amp;nbsp;공공&amp;nbsp;의료&amp;nbsp;보험&amp;nbsp;프로그램입니다.&amp;nbsp;따라서&amp;nbsp;아래의&amp;nbsp;결과는&amp;nbsp;저소득&amp;nbsp;가정의&amp;nbsp;영아들이&amp;nbsp;RSV로&amp;nbsp;인한&amp;nbsp;입원&amp;nbsp;위험이&amp;nbsp;높음을&amp;nbsp;시사합니다.&amp;nbsp;&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1210&quot; data-origin-height=&quot;970&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bxokXG/btsIB5xxtRH/VaO5kq5ybSzpUeRx3qU5XK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bxokXG/btsIB5xxtRH/VaO5kq5ybSzpUeRx3qU5XK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bxokXG/btsIB5xxtRH/VaO5kq5ybSzpUeRx3qU5XK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbxokXG%2FbtsIB5xxtRH%2FVaO5kq5ybSzpUeRx3qU5XK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;627&quot; height=&quot;503&quot; data-origin-width=&quot;1210&quot; data-origin-height=&quot;970&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1012&quot; data-origin-height=&quot;1290&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bTFghO/btsIAuFjijH/Eth8qOqbc8yHIjuiJSimL1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bTFghO/btsIAuFjijH/Eth8qOqbc8yHIjuiJSimL1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bTFghO/btsIAuFjijH/Eth8qOqbc8yHIjuiJSimL1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbTFghO%2FbtsIAuFjijH%2FEth8qOqbc8yHIjuiJSimL1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;613&quot; height=&quot;781&quot; data-origin-width=&quot;1012&quot; data-origin-height=&quot;1290&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;i&gt;Mortality&amp;nbsp;Among&amp;nbsp;US&amp;nbsp;Infants&amp;nbsp;and&amp;nbsp;Children&amp;nbsp;Under&amp;nbsp;5&amp;nbsp;Years&amp;nbsp;of&amp;nbsp;Age&amp;nbsp;with&amp;nbsp;Respiratory&amp;nbsp;Syncytial&amp;nbsp;Virus&amp;nbsp;and&amp;nbsp;Bronchiolitis&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 연구도 앞서 살펴본 내용과 크게 다르지는 않습니다. 미국의 질병통제예방센터(CDC)가 매년 약 40,000명의 영유아가 RSV로 인해 입원한다고 추정하고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;2015-2016&amp;nbsp;감시&amp;nbsp;기간&amp;nbsp;동안&amp;nbsp;미국의&amp;nbsp;RSV&amp;nbsp;입원율&lt;br /&gt;-&amp;nbsp;5세&amp;nbsp;미만&amp;nbsp;어린이&amp;nbsp;1000명당&amp;nbsp;2.9명&lt;br /&gt;-&amp;nbsp;6개월&amp;nbsp;미만&amp;nbsp;영유아&amp;nbsp;1000명당&amp;nbsp;14.7명&lt;br /&gt;-&amp;nbsp;1개원&amp;nbsp;영유아&amp;nbsp;1000명당&amp;nbsp;25.1&amp;nbsp;명&amp;nbsp;(&amp;nbsp;가장&amp;nbsp;높음&amp;nbsp;)&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또&amp;nbsp;다른&amp;nbsp;연구인&amp;nbsp;2011-2019년&amp;nbsp;NIS(National&amp;nbsp;Impatient&amp;nbsp;Sample)&amp;nbsp;데이터를&amp;nbsp;기반으로&amp;nbsp;영유아&amp;nbsp;RSV&amp;nbsp;입원&amp;nbsp;환자는&amp;nbsp;56,927명으로&amp;nbsp;나타납니다.&amp;nbsp;&lt;br /&gt;-&amp;nbsp;2019년&amp;nbsp;영유아&amp;nbsp;RSV&amp;nbsp;입원율은&amp;nbsp;1000명당&amp;nbsp;17.2명&lt;br /&gt;&lt;br /&gt;영유아&amp;nbsp;RSV&amp;nbsp;문제는&amp;nbsp;공중&amp;nbsp;보건에&amp;nbsp;중요한&amp;nbsp;문제를&amp;nbsp;제기하고&amp;nbsp;있으나&amp;nbsp;미국에서는&amp;nbsp;routine&amp;nbsp;laboratory&amp;nbsp;testing을&amp;nbsp;권장하지&amp;nbsp;않으므로&amp;nbsp;&lt;b&gt;RSV의&amp;nbsp;실제&amp;nbsp;사례는&amp;nbsp;과소평가되거나&amp;nbsp;불확실할&amp;nbsp;가능성이&amp;nbsp;높다고&amp;nbsp;언급합니다.(underestimated&amp;nbsp;or&amp;nbsp;uncertain)&amp;nbsp;&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;본&amp;nbsp;연구는&amp;nbsp;전체&amp;nbsp;사망률과&amp;nbsp;함께&amp;nbsp;연령,&amp;nbsp;출생&amp;nbsp;주수(wGA),&amp;nbsp;중환자실&amp;nbsp;입원과&amp;nbsp;같은&amp;nbsp;질병의&amp;nbsp;심각성에&amp;nbsp;영향을&amp;nbsp;미칠&amp;nbsp;것으로&amp;nbsp;예상되는&amp;nbsp;&lt;b&gt;사회인구학적&amp;nbsp;및&amp;nbsp;임상&amp;nbsp;변수별로&amp;nbsp;분석&lt;/b&gt;되었습니다.&amp;nbsp;RSV&amp;nbsp;사례가&amp;nbsp;과소평가될&amp;nbsp;가능성이&amp;nbsp;높기&amp;nbsp;때문에,&amp;nbsp;모든&amp;nbsp;원인에&amp;nbsp;의한&amp;nbsp;세기관지염(ACB)&amp;nbsp;사례에서의&amp;nbsp;사망률도&amp;nbsp;RSV&amp;nbsp;사망률의&amp;nbsp;상한선으로&amp;nbsp;설명합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;체계적 문헌 검토(SLR) 및 메타분석 보고항목(PRISMA)&lt;/b&gt; 지침에 따른 방법론을 사용합니다. 개별 연구의 편향 위험은 코호트 연구와 사례-대조 연구에 대해 수정된 뉴캐슬 오타와 척도(Newcastle Ottawa Scale, NOS)를 사용하여 평가되었습니다. 여러 연구들을 Review하는 survey 같은 논문이라고 생각하시면 될 것 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대부분의 연구는 후향적 코호트 연구이고 그 외 감시 연구, 사례-대조군 연구, 전향적 코호트 연구가 포함되었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;데이터는&amp;nbsp;단일&amp;nbsp;기관&amp;nbsp;연구부터&amp;nbsp;전국&amp;nbsp;규모의&amp;nbsp;데이터베이스(예:&amp;nbsp;NIS,&amp;nbsp;KID)를&amp;nbsp;사용한&amp;nbsp;연구까지&amp;nbsp;다양합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;연구&amp;nbsp;기간은&amp;nbsp;1979년부터&amp;nbsp;2019년까지&amp;nbsp;다양한&amp;nbsp;기간을&amp;nbsp;다룹니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;연구&amp;nbsp;대상은&amp;nbsp;대부분&amp;nbsp;5세&amp;nbsp;미만의&amp;nbsp;영유아를&amp;nbsp;대상으로&amp;nbsp;하며,&amp;nbsp;일부&amp;nbsp;연구는&amp;nbsp;특정&amp;nbsp;연령대(예:&amp;nbsp;3개월&amp;nbsp;미만)나&amp;nbsp;특정&amp;nbsp;조건(예:&amp;nbsp;조산아)에&amp;nbsp;초점을&amp;nbsp;맞추었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;연구&amp;nbsp;품질은&amp;nbsp;AHRQ&amp;nbsp;기준에&amp;nbsp;따라&amp;nbsp;대부분의&amp;nbsp;연구가&amp;nbsp;'Good'&amp;nbsp;품질로&amp;nbsp;평가되었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;특정&amp;nbsp;집단&amp;nbsp;연구&amp;nbsp;중환자실&amp;nbsp;입원&amp;nbsp;환자,&amp;nbsp;선천성&amp;nbsp;심장병&amp;nbsp;환자,&amp;nbsp;아메리카&amp;nbsp;원주민/알래스카&amp;nbsp;원주민&amp;nbsp;등&amp;nbsp;특정&amp;nbsp;집단을&amp;nbsp;대상으로&amp;nbsp;한&amp;nbsp;연구들도&amp;nbsp;포함되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screenshot from 2024-07-17 07-50-56.png&quot; data-origin-width=&quot;702&quot; data-origin-height=&quot;506&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/LpCje/btsICFygC2X/wfpck6lhghjBRLaOmInKW1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/LpCje/btsICFygC2X/wfpck6lhghjBRLaOmInKW1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/LpCje/btsICFygC2X/wfpck6lhghjBRLaOmInKW1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FLpCje%2FbtsICFygC2X%2Fwfpck6lhghjBRLaOmInKW1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;702&quot; height=&quot;506&quot; data-filename=&quot;Screenshot from 2024-07-17 07-50-56.png&quot; data-origin-width=&quot;702&quot; data-origin-height=&quot;506&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table2는 미국의 5세 미만 영유아에서 RSV와 전체 원인 세기관지염(ACB)의 사망률을 보고한 연구들의 결과를 요약한 표입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;1979년부터&amp;nbsp;1999년까지의&amp;nbsp;데이터를&amp;nbsp;다루고&amp;nbsp;있고&amp;nbsp;RSV에&amp;nbsp;대한&amp;nbsp;구체적인&amp;nbsp;사망률은&amp;nbsp;보고되지&amp;nbsp;않았습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;1세&amp;nbsp;미만&amp;nbsp;영아의&amp;nbsp;ACB&amp;nbsp;사망률은&amp;nbsp;10만&amp;nbsp;명당&amp;nbsp;2.0에서&amp;nbsp;9.4&amp;nbsp;사이로&amp;nbsp;보고되었습니다.&lt;/b&gt;&lt;br /&gt;&lt;b&gt;5세&amp;nbsp;미만&amp;nbsp;안동의&amp;nbsp;ACB&amp;nbsp;사망률은&amp;nbsp;10만&amp;nbsp;명당&amp;nbsp;0.57에서&amp;nbsp;0.65&amp;nbsp;사이로&amp;nbsp;보고되었습니다.&amp;nbsp;&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;하위그룹&amp;nbsp;분석&amp;nbsp;:&amp;nbsp;성별,&amp;nbsp;인종,&amp;nbsp;재태&amp;nbsp;연령,&amp;nbsp;출생&amp;nbsp;체중,&amp;nbsp;지역&amp;nbsp;등에&amp;nbsp;따른&amp;nbsp;사망률&amp;nbsp;차이가&amp;nbsp;보고되었습니다.&amp;nbsp;예를&amp;nbsp;들어&amp;nbsp;남아가&amp;nbsp;여아보다,&amp;nbsp;흑인이&amp;nbsp;백인보다,&amp;nbsp;조산아가&amp;nbsp;만삭아보다&amp;nbsp;더&amp;nbsp;높은&amp;nbsp;사망률을&amp;nbsp;보였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본&amp;nbsp;연구의&amp;nbsp;전반적인&amp;nbsp;결과를&amp;nbsp;요약하자면&amp;nbsp;RSV나&amp;nbsp;ACB로&amp;nbsp;인한&amp;nbsp;5세&amp;nbsp;미만&amp;nbsp;영유아의&amp;nbsp;사망률은&amp;nbsp;상대적으로&amp;nbsp;낮았습니다.&amp;nbsp;전국적으로&amp;nbsp;대표성이&amp;nbsp;있는&amp;nbsp;데이터베이스를&amp;nbsp;사용한&amp;nbsp;연구에서&amp;nbsp;건강한&amp;nbsp;아동의&amp;nbsp;RSV&amp;nbsp;CFR은&amp;nbsp;0.04%에서&amp;nbsp;0.55%&amp;nbsp;범위였습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;데이터는&amp;nbsp;RSV&amp;nbsp;사망률에&amp;nbsp;대한&amp;nbsp;최신&amp;nbsp;데이터가&amp;nbsp;부족합니다.&amp;nbsp;그리고&amp;nbsp;건강한&amp;nbsp;조산아나&amp;nbsp;만삭아에&amp;nbsp;대한&amp;nbsp;데이터가&amp;nbsp;특히&amp;nbsp;부족합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;RSV의&amp;nbsp;정의와&amp;nbsp;진단&amp;nbsp;방법의&amp;nbsp;차이로&amp;nbsp;인해&amp;nbsp;실제&amp;nbsp;위험성을&amp;nbsp;자세하게&amp;nbsp;파악하기&amp;nbsp;어려운&amp;nbsp;점이&amp;nbsp;있습니다.&amp;nbsp;미국&amp;nbsp;소아과학회&amp;nbsp;지침이&amp;nbsp;체계적인&amp;nbsp;RSV&amp;nbsp;검사를&amp;nbsp;권장하지&amp;nbsp;않아서&amp;nbsp;불확실성이&amp;nbsp;존재합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;포괄적이고&amp;nbsp;체계적인&amp;nbsp;RSV&amp;nbsp;검사와&amp;nbsp;보고가&amp;nbsp;필요합니다.&amp;nbsp;입원&amp;nbsp;외&amp;nbsp;사망&amp;nbsp;사례를&amp;nbsp;포함한&amp;nbsp;더&amp;nbsp;광범위한&amp;nbsp;데이터&amp;nbsp;수집이&amp;nbsp;필요합니다.&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/125</guid>
      <comments>https://minyoungxi.tistory.com/125#entry125comment</comments>
      <pubDate>Wed, 17 Jul 2024 08:02:58 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] Vision language models are blind - VLM은 사실 장님이었나 ?</title>
      <link>https://minyoungxi.tistory.com/124</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Introduction&amp;nbsp;&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/DXFB3/btsIvS6ve5p/DalXpqJcdQcGLg7nNaC5ZK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/DXFB3/btsIvS6ve5p/DalXpqJcdQcGLg7nNaC5ZK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/DXFB3/btsIvS6ve5p/DalXpqJcdQcGLg7nNaC5ZK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FDXFB3%2FbtsIvS6ve5p%2FDalXpqJcdQcGLg7nNaC5ZK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1580&quot; height=&quot;810&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근&amp;nbsp;8개월&amp;nbsp;동안&lt;b&gt;&amp;nbsp;Vision&amp;nbsp;Language&amp;nbsp;Models&amp;nbsp;(VLMs)&lt;/b&gt;의 발전으로 다양한 이미지-텍스트 처리가 가능해졌습니다. VLM들은 장면 내 객체 식별, 복잡한 작업 수행 등에서 뛰어난 성능을 보이고 있습니다. 현재의 VLM 벤치마크들은 인간과 AI 간의 전반적인 격차를 측정하지만&lt;b&gt;, 구체적인 시각적 한계를 지적하지는 않습니다.&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;이&amp;nbsp;논문은&amp;nbsp;VLM이&amp;nbsp;실제로&amp;nbsp;인간처럼&amp;nbsp;이미지를&amp;nbsp;&quot;&lt;b&gt;보는지&lt;/b&gt;&quot; 검증하기 위해 로우 레벨 차원에서 시각 작업에 대한 새로운 벤치마크를 제안합니다. 이 벤치마크는 2D 기하학적 도형만을 포함하며, 최소한의 지식을 요구합니다.&lt;br /&gt;&lt;br /&gt;연구진은&amp;nbsp;4개의&amp;nbsp;최신&amp;nbsp;&lt;b&gt;VLM&amp;nbsp;(GPT-4V,&amp;nbsp;Gemini-1.5&amp;nbsp;Pro,&amp;nbsp;Claude-3&amp;nbsp;Sonnet,&amp;nbsp;Claude-3.5&amp;nbsp;Sonnet)&lt;/b&gt;을&amp;nbsp;8가지&amp;nbsp;간단한&amp;nbsp;시각&amp;nbsp;작업에&amp;nbsp;대해&amp;nbsp;테스트했습니다.&amp;nbsp;그&amp;nbsp;결과,&amp;nbsp;VLM들이&amp;nbsp;인간에게는&amp;nbsp;매우&amp;nbsp;쉬운&amp;nbsp;작업들(예:&amp;nbsp;두&amp;nbsp;선의&amp;nbsp;교차점&amp;nbsp;확인,&amp;nbsp;원&amp;nbsp;겹침&amp;nbsp;여부&amp;nbsp;판단&amp;nbsp;등)에서&amp;nbsp;놀라울&amp;nbsp;정도로&amp;nbsp;낮은&amp;nbsp;성능을&amp;nbsp;보였습니다.&lt;br /&gt;&lt;br /&gt;이러한&amp;nbsp;결과는&amp;nbsp;VLM의&amp;nbsp;&quot;시각&quot;이&amp;nbsp;근시와&amp;nbsp;같이&amp;nbsp;세부&amp;nbsp;사항을&amp;nbsp;흐릿하게&amp;nbsp;보는&amp;nbsp;것에&amp;nbsp;가깝거나,&amp;nbsp;최악의&amp;nbsp;경우&amp;nbsp;시각&amp;nbsp;정보&amp;nbsp;없이&amp;nbsp;추측하는&amp;nbsp;것과&amp;nbsp;같다는&amp;nbsp;것을&amp;nbsp;시사합니다.&amp;nbsp;이는&amp;nbsp;기존의&amp;nbsp;복잡한&amp;nbsp;벤치마크에서&amp;nbsp;VLM들이&amp;nbsp;보여준&amp;nbsp;높은&amp;nbsp;성능과는&amp;nbsp;대조적입니다.&lt;br /&gt;&lt;br /&gt;이&amp;nbsp;연구는&amp;nbsp;VLM의&amp;nbsp;구체적인&amp;nbsp;시각적&amp;nbsp;한계를&amp;nbsp;밝히고,&amp;nbsp;향후&amp;nbsp;컴퓨터&amp;nbsp;비전&amp;nbsp;연구의&amp;nbsp;방향성을&amp;nbsp;제시하는&amp;nbsp;데&amp;nbsp;기여하고&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Task&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://vlmsareblind.github.io/&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://vlmsareblind.github.io/&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서 테스트한 7가지 주요 테스크는 다음과 같습니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;선 교차점 세기: 두 개의 2-세그먼트 선형 함수가 교차하는 횟수를 세는 과제입니다.&lt;/li&gt;
&lt;li&gt;두 원의 겹침/접촉 여부 판단: 두 개의 원이 겹치거나 접촉하는지 여부를 판단하는 과제입니다.&lt;/li&gt;
&lt;li&gt;원으로 둘러싸인 글자 식별: 단어 내에서 빨간 원으로 둘러싸인 특정 글자를 식별하는 과제입니다.&lt;/li&gt;
&lt;li&gt;겹치는 도형 세기: 올림픽 로고와 유사한 겹치는 원이나 오각형의 개수를 세는 과제입니다.&lt;/li&gt;
&lt;li&gt;중첩된 사각형 세기: 서로 중첩된 사각형의 개수를 세는 과제입니다.&lt;/li&gt;
&lt;li&gt;격자의 행과 열 세기: 주어진 격자(그리드)에서 행과 열의 수를 세는 과제입니다.&lt;/li&gt;
&lt;li&gt;단일 색상 경로 따라가기: 간단한 지하철 지도에서 두 지점 사이의 단일 색상 경로의 수를 세는 과제입니다.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1371&quot; data-origin-height=&quot;199&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/sdx1J/btsIxkAH4V7/oj8LKyMriii5tFfn3mznk1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/sdx1J/btsIxkAH4V7/oj8LKyMriii5tFfn3mznk1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/sdx1J/btsIxkAH4V7/oj8LKyMriii5tFfn3mznk1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fsdx1J%2FbtsIxkAH4V7%2Foj8LKyMriii5tFfn3mznk1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1371&quot; height=&quot;199&quot; data-origin-width=&quot;1371&quot; data-origin-height=&quot;199&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의 링크에서는 각 Task마다 4개의 주요 VLM 모델들의 성능을 자세하게 리뷰하고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 Task들을 보면 모두 기본적인 시각적 인식 능력을 요구하며, 인간에게는 매우 쉽지만 VLM에게는 예상외로 어렵게 느껴지는 것 같습니다. 각 Task는 다양한 크기, 색상, 두께 등의 변수들을 포함하여 다각도로 모델의 성능을 평가했습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Task2의 결과를 한 번 확인해보고 갈까요?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제공해드린 사이트로 가보면 이미지,프롬프트,결과들이 보기쉽게 정리되어 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 모델들이 얼마나 잘 맞추는지에 대해서 잘 정리되어 있으니 확인해보시기 바랍니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;998&quot; data-origin-height=&quot;662&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/N1jEX/btsIwAqCTUX/QlIK10d3MhAqWimKEtFzf1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/N1jEX/btsIwAqCTUX/QlIK10d3MhAqWimKEtFzf1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/N1jEX/btsIwAqCTUX/QlIK10d3MhAqWimKEtFzf1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FN1jEX%2FbtsIwAqCTUX%2FQlIK10d3MhAqWimKEtFzf1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;810&quot; height=&quot;537&quot; data-origin-width=&quot;998&quot; data-origin-height=&quot;662&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;973&quot; data-origin-height=&quot;555&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bsgwxu/btsIvNxnkNU/qDGa2sZNbKKUPAYqM2BEAk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bsgwxu/btsIvNxnkNU/qDGa2sZNbKKUPAYqM2BEAk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bsgwxu/btsIvNxnkNU/qDGa2sZNbKKUPAYqM2BEAk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbsgwxu%2FbtsIvNxnkNU%2FqDGa2sZNbKKUPAYqM2BEAk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;973&quot; height=&quot;555&quot; data-origin-width=&quot;973&quot; data-origin-height=&quot;555&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Insight&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문은 흥미로운 제목과 함께 재밌는 결과들을 제시하고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 VLM(Vision Language Models)은 실제로 인간이 보는 것처럼 이미지를 &quot;보는&quot; 것이 아니기 때문에 이러한 비교가 큰 의미가 있을지 의문이 듭니다. 모두 알다시피 모델은 이미지를 개별 픽셀(Pixel) 또는 Token의 집합으로 처리합니다. 모델은 이 픽셀 데이터를 바탕으로 학습된 패턴을 이용해 &quot;추측&quot; 혹은 &quot;추론&quot;을 하죠. 즉, 인간의 직관적인 이해와는 달리 통계적 추론에 가까운 과정을 거칩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;우리가 이 과정을 '시각' 또는 '보는 것'이라고 표현하는 것은 인간의 특성을 AI에 부여하는 의인화라는 것입니다. 실제로는 매우 다른 프로세스인데, 본 연구는 이를 인간의 시각 과정과 유사하다고 잘못 해석하고 있는 것 같습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;정리하자면 VLM의 작동 방식이 인간의 시각과 근본적으로 다르다는 점이고 우리가 AI 능력을 설명할 때 사용하는 언어가 때로는 오해를 불러일으킬 수 있다는 점을 지적하고 싶습니다.&amp;nbsp;&lt;/p&gt;</description>
      <category>AI</category>
      <category>llm</category>
      <category>VLM</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/124</guid>
      <comments>https://minyoungxi.tistory.com/124#entry124comment</comments>
      <pubDate>Thu, 11 Jul 2024 22:18:19 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - ECG(심전도), PPG(광전용적맥파) feature extraction 연구 논문을 읽어봅시다. ( ECG feature extraction , 심전도 인공지능 )</title>
      <link>https://minyoungxi.tistory.com/123</link>
      <description>&lt;h2 id=&quot;section-0&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;1. Introduction&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생체신호와 관련된 프로젝트를 진행하고 있는데, 가장 어려운 부분은 역시나 메디컬 도메인 지식입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;작년 말부터 진행 중이었던 현재 프로젝트를 너무 데이터 그 자체와 약간의 도메인 지식 그리고 인공지능 모델링 측면에서만 봐서 그런지 너무나 더딘 개선 속도가 마음에 걸려서 처음으로 돌아왔습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;많은 생체신호 데이터를 사용 중이지만, 그 중에서도 가장 중심적으로 활용이 되어야 하는 ECG와 PPG에 관해서 조금 더 deep하게 알아볼 것입니다. 개별적인 논문을 모두 자세히 보려고 했지만, 사실 ECG라는 데이터로 할 수 있는 연구가 너무나 많다보니 Feature Extraction 역시 각 연구의 목적에 따라 처리 방법이 너무나 다릅니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제가 가지고 있는 데이터는 125Hz인 반면 대부분의 논문은 거의 5-10Hz 를 사용하기도 하고 400Hz를 사용하기도 하더라구요. 아무래도 추출 방식에 따라서도 전처리 기법이 매우 다르기도 해서 여러 논문을 훑어보며 어떤 방식을 사용하는구나! 정도로만 보고 넘어가야 할 것 같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;358&quot; data-origin-height=&quot;169&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ObuX2/btsIrIIs7V2/Sr9jMkPbDP0GKV8zGDVrH0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ObuX2/btsIrIIs7V2/Sr9jMkPbDP0GKV8zGDVrH0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ObuX2/btsIrIIs7V2/Sr9jMkPbDP0GKV8zGDVrH0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FObuX2%2FbtsIrIIs7V2%2FSr9jMkPbDP0GKV8zGDVrH0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;358&quot; height=&quot;169&quot; data-origin-width=&quot;358&quot; data-origin-height=&quot;169&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 id=&quot;section-1&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;2. ECG&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;제가 보유한 ECG 데이터는 125Hz로 측정되었습니다. 논문마다 추출된 샘플링 레이트가 차이가 나는 경우가 많습니다. Resampling 과정을 통해 데이터의 샘플링을 줄이거나 늘릴 수 있는데요, 매우 낮은 샘플링 레이트로 리샘플링한다면 신호로부터 얻을 수 있는 정보의 손실이 커질 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;어떤 논문에서는 5-10 Hz 구간의 샘플링을 사용하기도하고 400Hz에서 사용하기도 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;125Hz에서 원본 데이터를 획득했다면, 400Hz로 업샘플링해도 추가적인 정보는 얻기 힘듭니다. 오히려 샘플링이 높을수록 데이터의 크기가 커지기 때문에 불필요한 계산 복잡성만 증가하게 되겠죠?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://www.nature.com/articles/s41467-020-15432-4&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;Automatic diagnosis of the 12-lead ECG using a deep neural network&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 논문은 심전도의 자동 진단을 위한 DNN의 사용 연구입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;1,676,384 명의 환자에게서 추출된 ECG 데이터를 사용하고, 1도 방실차단(1dAVb), 우각차단(RBBB), 좌각차단(LBBB), 동서맥(SB), 심방세동(AF), 동빈맥(ST)의 6가지 이상의 예측을 목표로 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Fig3.은 이 논문에서 사용한 DNN 구조인데요. 1차원 신호를 처리하고 분류하는 데 사용됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 구조를 통해 학습하는 주요 목표는 심전도 데이터에서 6가지 ECG 문제를 정확하게 인식하고 분류하는 것이라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 논문에서 사용된 방법이 400Hz 샘플링 속도로 리샘플링을 진행하고 7~10초의 신호를 4096 샘플로 zero padding 하여 입력값을 만들어 줍니다. 모델의 구조는 복잡하지 않게 설계되어 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기본적인 Convolutional Layer 와 Residual Blocks을 사용했고 마지막에 Fully Connected Layer를 통해 심전도의 각 이상 상태에 대한 확률을 계산하게 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결과를 보면 흉부외과 레지던트 의사들보다 높은 성능을 보였다고 하며 DNN 기반 ECG 분석이 단일 리드 설정에서 12-lead 검사로 일반화될 수 있다고 주장합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;831&quot; data-origin-height=&quot;357&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dO4eGE/btsIqPaLAuk/n8pkYiA2xzXctRp9ON9Qz1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dO4eGE/btsIqPaLAuk/n8pkYiA2xzXctRp9ON9Qz1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dO4eGE/btsIqPaLAuk/n8pkYiA2xzXctRp9ON9Qz1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdO4eGE%2FbtsIqPaLAuk%2Fn8pkYiA2xzXctRp9ON9Qz1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;722&quot; height=&quot;310&quot; data-origin-width=&quot;831&quot; data-origin-height=&quot;357&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #000000; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2310.00818&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;ECG-SL: Electrocardiogram(ECG) Segment Learning, a deep learning method for ECG signal&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 논문은 ECG 신호의 주기적 특성을 명시적으로 모델링하기 위해 새로운 ECG 세그먼트 학습 프레임워크를 제시합니다. 기존의 딥러닝 접근법은 ECG 신호의 주기적 특성을 충분히 고려하지 않았다는 문제가 있다고 언급합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ECG 신호를 개별 심장 박동 세그먼트로 분할하고 1차원 CNN 기반으로 오토인코더를 사용하여 특징을 추출합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Transformer 인코더를 사용하여 시간적 정보를 학습하고 최종적으로 Attention Layer를 통해 예측을 수행합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 모델은 오토인코더를 사용하여 구조적 임베딩을 pretrain 하고 Transformer 인코더를 사용하여 masking된 세그먼트를 재구성하는 방식으로 시간적 표현을 학습합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 모델에서 인상깊은 점은 Saliency Map을 사용하여 모델의 의사 결정 과정을 시각화하고 사용자가 이해할 수 있도록 돕는다는 점입니다. ECG 신호의 주기적 특성을 명시적으로 모델링하는 새로운 접근법을 제안하고 , 다양한 임상 테스크에서 뛰어난 성능을 입증했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;548&quot; data-origin-height=&quot;351&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bSFcCg/btsIrbdDmrQ/EqTBk1IWBCSBJ8gtFzyQrk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bSFcCg/btsIrbdDmrQ/EqTBk1IWBCSBJ8gtFzyQrk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bSFcCg/btsIrbdDmrQ/EqTBk1IWBCSBJ8gtFzyQrk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbSFcCg%2FbtsIrbdDmrQ%2FEqTBk1IWBCSBJ8gtFzyQrk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;548&quot; height=&quot;351&quot; data-origin-width=&quot;548&quot; data-origin-height=&quot;351&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 id=&quot;section-2&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;3. ECG feature에 대해서 알아보자 !&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;ECG(심전도)&amp;nbsp;신호에서&amp;nbsp;추출할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;주요&amp;nbsp;특징들&amp;nbsp;중&amp;nbsp;&lt;b&gt;RMSSD,&amp;nbsp;SDNN,&amp;nbsp;pNN50은&amp;nbsp;심박&amp;nbsp;변이도(Heart&amp;nbsp;Rate&amp;nbsp;Variability,&amp;nbsp;HRV)&lt;/b&gt;를&amp;nbsp;평가하는&amp;nbsp;데&amp;nbsp;중요한&amp;nbsp;지표입니다.&amp;nbsp;이들은&amp;nbsp;자율신경계의&amp;nbsp;활동과&amp;nbsp;심장&amp;nbsp;건강&amp;nbsp;상태를&amp;nbsp;반영하는&amp;nbsp;중요한&amp;nbsp;생리학적&amp;nbsp;정보를&amp;nbsp;제공합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;245&quot; data-origin-height=&quot;205&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bOnYbe/btsIu3sPtFs/S9Y62socu7vnqBwP9NvGCK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bOnYbe/btsIu3sPtFs/S9Y62socu7vnqBwP9NvGCK/img.png&quot; data-alt=&quot;RR interval&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bOnYbe/btsIu3sPtFs/S9Y62socu7vnqBwP9NvGCK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbOnYbe%2FbtsIu3sPtFs%2FS9Y62socu7vnqBwP9NvGCK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;313&quot; height=&quot;262&quot; data-origin-width=&quot;245&quot; data-origin-height=&quot;205&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;RR interval&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;심박 변이도(Heart Rate Variability, HRV)는 연속적인 심장 박동 사이의 시간 변화를 측정하는 생리학적 현상입니다. HRV는 자율신경계의 기능과 심장의 적응력을 반영하는 중요한 지표로, 전반적인 건강 상태와 스트레스 대처 능력을 평가하는 데 광범위하게 사용됩니다.&lt;br /&gt;&lt;br /&gt;HRV의 기본 원리는 건강한 심장이 외부 환경과 내부 상태의 변화에 따라 박동 간격을 지속적으로 조절한다는 것입니다. 예를 들어, 흡기 시에는 심박수가 약간 증가하고 호기 시에는 감소하는 현상(호흡 동성 부정맥)이 나타납니다. 이러한 변화는 주로 자율신경계의 교감신경과 부교감신경의 상호작용에 의해 조절됩니다.&lt;br /&gt;&lt;br /&gt;HRV의 임상적 응용은 매우 다양합니다.&lt;br /&gt;&lt;br /&gt;심혈관 질환의 위험 평가: 낮은 HRV는 심혈관 질환의 위험 증가와 관련이 있습니다.&lt;br /&gt;자율신경계 기능 평가: 당뇨병성 자율신경병증 등의 진단에 활용됩니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1600&quot; data-origin-height=&quot;774&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/K4unm/btsIvzdFlBS/1QR2YTBgUkWP6v4kaE9UeK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/K4unm/btsIvzdFlBS/1QR2YTBgUkWP6v4kaE9UeK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/K4unm/btsIvzdFlBS/1QR2YTBgUkWP6v4kaE9UeK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FK4unm%2FbtsIvzdFlBS%2F1QR2YTBgUkWP6v4kaE9UeK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1600&quot; height=&quot;774&quot; data-origin-width=&quot;1600&quot; data-origin-height=&quot;774&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;RMSSD(Root&amp;nbsp;Mean&amp;nbsp;Square&amp;nbsp;of&amp;nbsp;Successive&amp;nbsp;Differences)&lt;/b&gt;는&amp;nbsp;연속된&amp;nbsp;&lt;b&gt;RR 간격(RR interval)&lt;/b&gt;&amp;nbsp;차이의&amp;nbsp;제곱&amp;nbsp;평균의&amp;nbsp;제곱근으로,&amp;nbsp;심박의&amp;nbsp;단기&amp;nbsp;변동성을&amp;nbsp;나타냅니다.&amp;nbsp;이&amp;nbsp;지표는&amp;nbsp;주로&amp;nbsp;부교감&amp;nbsp;신경계의&amp;nbsp;활동을&amp;nbsp;반영하며,&amp;nbsp;높은&amp;nbsp;RMSSD&amp;nbsp;값은&amp;nbsp;더&amp;nbsp;좋은&amp;nbsp;심장&amp;nbsp;건강과&amp;nbsp;스트레스&amp;nbsp;대처&amp;nbsp;능력을&amp;nbsp;시사할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;일반적으로&amp;nbsp;20-70ms&amp;nbsp;사이의&amp;nbsp;값이&amp;nbsp;정상&amp;nbsp;범위로&amp;nbsp;간주되며,&amp;nbsp;이보다&amp;nbsp;높은&amp;nbsp;값은&amp;nbsp;더&amp;nbsp;강한&amp;nbsp;부교감&amp;nbsp;신경&amp;nbsp;활동을&amp;nbsp;의미할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;RMSSD는&amp;nbsp;스트레스&amp;nbsp;관리,&amp;nbsp;운동&amp;nbsp;회복,&amp;nbsp;그리고&amp;nbsp;전반적인&amp;nbsp;심혈관&amp;nbsp;건강&amp;nbsp;평가에&amp;nbsp;유용하게&amp;nbsp;사용됩니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;SDNN(Standard&amp;nbsp;Deviation&amp;nbsp;of&amp;nbsp;NN&amp;nbsp;intervals)&lt;/b&gt;은&amp;nbsp;RR&amp;nbsp;간격의&amp;nbsp;표준편차로,&amp;nbsp;전체적인&amp;nbsp;심박&amp;nbsp;변이도를&amp;nbsp;나타냅니다.&amp;nbsp;이&amp;nbsp;지표는&amp;nbsp;교감&amp;nbsp;및&amp;nbsp;부교감&amp;nbsp;신경계를&amp;nbsp;포함한&amp;nbsp;전반적인&amp;nbsp;자율신경계&amp;nbsp;활동을&amp;nbsp;평가하는&amp;nbsp;데&amp;nbsp;사용됩니다.&amp;nbsp;SDNN&amp;nbsp;값이&amp;nbsp;높을수록&amp;nbsp;심장이&amp;nbsp;다양한&amp;nbsp;상황에&amp;nbsp;더&amp;nbsp;잘&amp;nbsp;적응할&amp;nbsp;수&amp;nbsp;있음을&amp;nbsp;의미하며,&amp;nbsp;이는&amp;nbsp;더&amp;nbsp;나은&amp;nbsp;심장&amp;nbsp;건강&amp;nbsp;상태를&amp;nbsp;반영합니다.&amp;nbsp;일반적으로&amp;nbsp;0.5에서&amp;nbsp;2.0&amp;nbsp;사이의&amp;nbsp;값이&amp;nbsp;정상으로&amp;nbsp;간주되지만,&amp;nbsp;이는&amp;nbsp;측정&amp;nbsp;기간과&amp;nbsp;개인의&amp;nbsp;상태에&amp;nbsp;따라&amp;nbsp;다를&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;SDNN은&amp;nbsp;장기적인&amp;nbsp;심장&amp;nbsp;건강&amp;nbsp;예측과&amp;nbsp;전반적인&amp;nbsp;자율신경계&amp;nbsp;균형&amp;nbsp;평가에&amp;nbsp;중요한&amp;nbsp;역할을&amp;nbsp;합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;pNN50(Percentage&amp;nbsp;of&amp;nbsp;successive&amp;nbsp;NN&amp;nbsp;intervals&amp;nbsp;that&amp;nbsp;differ&amp;nbsp;by&amp;nbsp;more&amp;nbsp;than&amp;nbsp;50ms)&lt;/b&gt;는&amp;nbsp;연속된&amp;nbsp;RR&amp;nbsp;간격&amp;nbsp;중&amp;nbsp;50ms&amp;nbsp;이상&amp;nbsp;차이나는&amp;nbsp;간격의&amp;nbsp;비율을&amp;nbsp;나타냅니다.&amp;nbsp;이&amp;nbsp;지표&amp;nbsp;역시&amp;nbsp;부교감&amp;nbsp;신경&amp;nbsp;활동의&amp;nbsp;또&amp;nbsp;다른&amp;nbsp;지표로&amp;nbsp;사용되며,&amp;nbsp;RMSSD와&amp;nbsp;마찬가지로&amp;nbsp;단기&amp;nbsp;심박&amp;nbsp;변이도를&amp;nbsp;반영합니다.&amp;nbsp;일반적으로&amp;nbsp;건강한&amp;nbsp;성인에서는&amp;nbsp;10%&amp;nbsp;이상의&amp;nbsp;값이&amp;nbsp;정상으로&amp;nbsp;간주됩니다.&amp;nbsp;pNN50이&amp;nbsp;높을수록&amp;nbsp;부교감&amp;nbsp;신경&amp;nbsp;활동이&amp;nbsp;더&amp;nbsp;활발함을&amp;nbsp;의미하며,&amp;nbsp;이는&amp;nbsp;더&amp;nbsp;나은&amp;nbsp;심장&amp;nbsp;건강과&amp;nbsp;스트레스&amp;nbsp;대처&amp;nbsp;능력을&amp;nbsp;시사할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;이&amp;nbsp;지표는&amp;nbsp;특히&amp;nbsp;연령에&amp;nbsp;따른&amp;nbsp;자율신경계&amp;nbsp;기능&amp;nbsp;변화를&amp;nbsp;평가하거나,&amp;nbsp;운동&amp;nbsp;훈련의&amp;nbsp;효과를&amp;nbsp;모니터링하는&amp;nbsp;데&amp;nbsp;유용하게&amp;nbsp;사용됩니다.&lt;br /&gt;&lt;br /&gt;이러한&amp;nbsp;HRV&amp;nbsp;지표들은&amp;nbsp;개별적으로도&amp;nbsp;중요하지만,&amp;nbsp;함께&amp;nbsp;분석될&amp;nbsp;때&amp;nbsp;더욱&amp;nbsp;포괄적인&amp;nbsp;심장&amp;nbsp;건강&amp;nbsp;평가가&amp;nbsp;가능합니다.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;RMSSD와&amp;nbsp;pNN50이&amp;nbsp;모두&amp;nbsp;높고&amp;nbsp;SDNN도&amp;nbsp;정상&amp;nbsp;범위&amp;nbsp;내에&amp;nbsp;있다면,&amp;nbsp;이는&amp;nbsp;건강한&amp;nbsp;자율신경계&amp;nbsp;기능과&amp;nbsp;좋은&amp;nbsp;심장&amp;nbsp;적응력을&amp;nbsp;나타낼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;반면,&amp;nbsp;이&amp;nbsp;지표들이&amp;nbsp;모두&amp;nbsp;낮다면&amp;nbsp;자율신경계&amp;nbsp;기능&amp;nbsp;저하나&amp;nbsp;심장&amp;nbsp;건강의&amp;nbsp;문제를&amp;nbsp;시사할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;따라서&amp;nbsp;이러한&amp;nbsp;ECG&amp;nbsp;특징들은&amp;nbsp;임상에서&amp;nbsp;심장&amp;nbsp;질환의&amp;nbsp;조기&amp;nbsp;진단,&amp;nbsp;치료&amp;nbsp;효과&amp;nbsp;모니터링,&amp;nbsp;그리고&amp;nbsp;전반적인&amp;nbsp;건강&amp;nbsp;상태&amp;nbsp;평가에&amp;nbsp;중요한&amp;nbsp;도구로&amp;nbsp;활용됩니다.&lt;/p&gt;
&lt;h3 id=&quot;section-4&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;4. CO&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://www.nature.com/articles/s41598-024-57971-6&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;&lt;b&gt;A multimodal stacked ensemble model for cardiac output prediction utilizing cardiorespiratory interactions during general anesthesia&amp;nbsp;&lt;/b&gt;&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;해당 논문은 Cardiac Output을 추정하는 멀티모달 방법론에 대한 내용입니다. 469명의 환자들로부터 추출된 NIBP(Non-invasive Blood Pressure) , HR(Heart Reate) , SpO2, CO 를 데이터로 사용하네요.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래는 멀티모달 모델링을 통해 CO를 추정하는 방법입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;머신러닝 알고리즘인 Generalized linear model (GLM), random forest (RF), gradient boosting machine (GBM), extreme gradient boosting (XGBoost)를 사용합니다. 개별 base learner들을 사용해서 마지막에 Ensemble 기법을 통해 합쳐줍니다. 평가 지표는 MSE , RMSE, MAE , R제곱 등을 통해 평가하네요.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;873&quot; data-origin-height=&quot;593&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cQTXi9/btsIqDhhGsg/FCY9rDkkWn0kvttZflOgak/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cQTXi9/btsIqDhhGsg/FCY9rDkkWn0kvttZflOgak/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cQTXi9/btsIqDhhGsg/FCY9rDkkWn0kvttZflOgak/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcQTXi9%2FbtsIqDhhGsg%2FFCY9rDkkWn0kvttZflOgak%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;873&quot; height=&quot;593&quot; data-origin-width=&quot;873&quot; data-origin-height=&quot;593&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/123</guid>
      <comments>https://minyoungxi.tistory.com/123#entry123comment</comments>
      <pubDate>Wed, 10 Jul 2024 19:07:21 +0900</pubDate>
    </item>
    <item>
      <title>[Insight] Scale&amp;rsquo;s Alex Wang on the US-China AI Race - Scale AI의 수장 Alex Wang이 말하는 AI 전쟁</title>
      <link>https://minyoungxi.tistory.com/122</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;최근&amp;nbsp;Scale&amp;nbsp;AI의&amp;nbsp;CEO인&amp;nbsp;Alex&amp;nbsp;Wang의&amp;nbsp;인터뷰가&amp;nbsp;담긴&amp;nbsp;팟캐스트를&amp;nbsp;들었는데요,&amp;nbsp;AI가&amp;nbsp;글로벌&amp;nbsp;권력&amp;nbsp;균형을&amp;nbsp;어떻게&amp;nbsp;변화시킬&amp;nbsp;수&amp;nbsp;있는지에&amp;nbsp;대한&amp;nbsp;Alex&amp;nbsp;Wang(Scale&amp;nbsp;AI의&amp;nbsp;CEO)의&amp;nbsp;인사이트가&amp;nbsp;인상적입니다.&amp;nbsp;&amp;nbsp;&lt;br /&gt;(&lt;a href=&quot;https://www.chinatalk.media/p/scales-alex-wang-on-the-us-china)&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.chinatalk.media/p/scales-alex-wang-on-the-us-china)&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;Scale&amp;nbsp;AI라는&amp;nbsp;회사는&amp;nbsp;AI&amp;nbsp;트레이닝&amp;nbsp;데이터&amp;nbsp;라벨링을&amp;nbsp;위한&amp;nbsp;API를&amp;nbsp;제공하는&amp;nbsp;비즈니스&amp;nbsp;모델을&amp;nbsp;가지고&amp;nbsp;있는&amp;nbsp;회사입니다.&amp;nbsp;특히,&amp;nbsp;자율&amp;nbsp;주행&amp;nbsp;관련&amp;nbsp;데이터를&amp;nbsp;필요로&amp;nbsp;하는&amp;nbsp;Waymo,&amp;nbsp;Uber&amp;nbsp;등의&amp;nbsp;기업이&amp;nbsp;주요&amp;nbsp;고객이라고&amp;nbsp;합니다.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본&amp;nbsp;인터뷰는&amp;nbsp;ChinaTalk&amp;nbsp;에서&amp;nbsp;진행했습니다.&amp;nbsp;인공지능의&amp;nbsp;발전에&amp;nbsp;빼놓을&amp;nbsp;수&amp;nbsp;없는&amp;nbsp;국가가&amp;nbsp;중국이죠&amp;nbsp;?&amp;nbsp;자율주행은&amp;nbsp;물론&amp;nbsp;데이터의&amp;nbsp;절대적인&amp;nbsp;양을&amp;nbsp;따져도&amp;nbsp;미국과&amp;nbsp;가장&amp;nbsp;비등한&amp;nbsp;상대가&amp;nbsp;중국이라고&amp;nbsp;생각합니다.&amp;nbsp;Alex&amp;nbsp;처럼&amp;nbsp;미국으로&amp;nbsp;가서&amp;nbsp;스타트업을&amp;nbsp;성공적으로&amp;nbsp;이끈&amp;nbsp;중국인들도&amp;nbsp;굉장히&amp;nbsp;많죠.&amp;nbsp;Alex의&amp;nbsp;Scale&amp;nbsp;AI는&amp;nbsp;예전에&amp;nbsp;잠깐&amp;nbsp;들었는데,&amp;nbsp;벌써&amp;nbsp;시리즈&amp;nbsp;F&amp;nbsp;투자를&amp;nbsp;받았네요.&amp;nbsp;!!&amp;nbsp;&lt;br /&gt;&lt;br /&gt;Alex는&amp;nbsp;Scale의&amp;nbsp;10억&amp;nbsp;달러&amp;nbsp;자금&amp;nbsp;조성을&amp;nbsp;발표하는&amp;nbsp;이&amp;nbsp;블로그&amp;nbsp;포스트에서(&lt;a href=&quot;https://scale.com/blog/scale-ai-series-f)&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://scale.com/blog/scale-ai-series-f)&lt;/a&gt;&amp;nbsp;Scale이&amp;nbsp;AI를&amp;nbsp;위한&amp;nbsp;세계적인&amp;nbsp;데이터&amp;nbsp;파운드리로&amp;nbsp;성장하는&amp;nbsp;것을&amp;nbsp;목표로&amp;nbsp;하고&amp;nbsp;있다고&amp;nbsp;언급했습니다.&amp;nbsp;Alex는&amp;nbsp;뉴멕시코&amp;nbsp;주&amp;nbsp;로스&amp;nbsp;알라모스에서&amp;nbsp;두&amp;nbsp;명의&amp;nbsp;물리학자&amp;nbsp;부모님&amp;nbsp;밑에서&amp;nbsp;자랐고,&amp;nbsp;대학&amp;nbsp;시절에&amp;nbsp;Scale을&amp;nbsp;시작했습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;그는&amp;nbsp;DoD(국방부)와&amp;nbsp;협력하며&amp;nbsp;AI의&amp;nbsp;국가&amp;nbsp;안보적&amp;nbsp;함의에&amp;nbsp;대해&amp;nbsp;진지하게&amp;nbsp;고민하는&amp;nbsp;유일한&amp;nbsp;민간&amp;nbsp;AI&amp;nbsp;리더&amp;nbsp;중&amp;nbsp;한&amp;nbsp;명입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;아래는&amp;nbsp;인터뷰에서&amp;nbsp;논의한&amp;nbsp;주제들입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;1.&amp;nbsp;AGI의&amp;nbsp;급속한&amp;nbsp;도약을&amp;nbsp;제한하는&amp;nbsp;세&amp;nbsp;가지&amp;nbsp;주요&amp;nbsp;요인과&amp;nbsp;얼마나&amp;nbsp;빠르게&amp;nbsp;이런&amp;nbsp;장애물들을&amp;nbsp;넘을&amp;nbsp;수&amp;nbsp;있을까&amp;nbsp;?&amp;nbsp;&lt;br /&gt;2.&amp;nbsp;AGI의&amp;nbsp;경쟁에서&amp;nbsp;중국의&amp;nbsp;강점과&amp;nbsp;약점&lt;br /&gt;3.&amp;nbsp;AI&amp;nbsp;경쟁에서&amp;nbsp;승리(또는&amp;nbsp;패배)할&amp;nbsp;경우의&amp;nbsp;국가&amp;nbsp;안보적&amp;nbsp;의미&lt;br /&gt;4.&amp;nbsp;AI&amp;nbsp;net&amp;nbsp;평가에&amp;nbsp;대한&amp;nbsp;전망과&amp;nbsp;데이터에&amp;nbsp;대한&amp;nbsp;맨해튼&amp;nbsp;프로젝트의&amp;nbsp;필요성&lt;br /&gt;5.&amp;nbsp;혁신을&amp;nbsp;저해하지&amp;nbsp;않거나&amp;nbsp;이민자들을&amp;nbsp;차별하지&amp;nbsp;않으면서&amp;nbsp;AI의&amp;nbsp;간첩&amp;nbsp;행위를&amp;nbsp;방지하는&amp;nbsp;방법&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;데이터의 벽&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;AI의&amp;nbsp;진보와&amp;nbsp;국가&amp;nbsp;경쟁력을&amp;nbsp;주도하는&amp;nbsp;세&amp;nbsp;가지&amp;nbsp;대표적인&amp;nbsp;요인은&lt;b&gt;&amp;nbsp;컴퓨트(Compute),&amp;nbsp;데이터(Data),&amp;nbsp;알고리즘(Algorithms)&lt;/b&gt;&amp;nbsp;입니다.&amp;nbsp;컴퓨트(연산)과&amp;nbsp;알고리즘에&amp;nbsp;대해서는&amp;nbsp;많은&amp;nbsp;논의가&amp;nbsp;이루어졌지만,&amp;nbsp;데이터&amp;nbsp;역시&amp;nbsp;매우&amp;nbsp;중요한&amp;nbsp;부분입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;첫&amp;nbsp;번째로&amp;nbsp;중요한&amp;nbsp;것은&amp;nbsp;첫&amp;nbsp;&lt;b&gt;컴퓨팅&amp;nbsp;곡선(compute&amp;nbsp;curve)&lt;/b&gt;입니다.&amp;nbsp;무어의&amp;nbsp;법칙과&amp;nbsp;확장&amp;nbsp;기능을&amp;nbsp;모두&amp;nbsp;활용하여&amp;nbsp;과거보다&amp;nbsp;훨씬&amp;nbsp;더&amp;nbsp;많은&amp;nbsp;컴퓨팅을&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있습니다.&lt;br /&gt;&lt;br /&gt;두&amp;nbsp;번째로&amp;nbsp;중요한&amp;nbsp;것은&amp;nbsp;&lt;b&gt;데이터&lt;/b&gt;인데요,&amp;nbsp;데이터는&amp;nbsp;AI&amp;nbsp;모델의&amp;nbsp;성능을&amp;nbsp;향상시키기&amp;nbsp;위해&amp;nbsp;필수적입니다.&amp;nbsp;양질의&amp;nbsp;데이터가&amp;nbsp;많이&amp;nbsp;필요하며,&amp;nbsp;이러한&amp;nbsp;데이터는&amp;nbsp;지속적으로&amp;nbsp;업데이트되고&amp;nbsp;개선되어야&amp;nbsp;합니다.&amp;nbsp;앞으로&amp;nbsp;나아가기&amp;nbsp;위해서는&amp;nbsp;데이터의&amp;nbsp;수집,&amp;nbsp;정제,&amp;nbsp;관리에&amp;nbsp;대한&amp;nbsp;지속적인&amp;nbsp;투자가&amp;nbsp;필요합니다.&amp;nbsp;데이터&amp;nbsp;벽을&amp;nbsp;넘기&amp;nbsp;위해서는&amp;nbsp;이러한&amp;nbsp;과정들이&amp;nbsp;더욱&amp;nbsp;효율적으로&amp;nbsp;이루어져야&amp;nbsp;합니다.&lt;br /&gt;&lt;br /&gt;2010년대&amp;nbsp;초반부터&amp;nbsp;딥러닝과&amp;nbsp;신경망의&amp;nbsp;사용이&amp;nbsp;시작되면서,&amp;nbsp;알고리즘에&amp;nbsp;사용되는&amp;nbsp;데이터의&amp;nbsp;양은&amp;nbsp;꾸준히&amp;nbsp;지수&amp;nbsp;곡선&amp;nbsp;형태로&amp;nbsp;증가해&amp;nbsp;왔습니다.&amp;nbsp;이는&amp;nbsp;&lt;b&gt;페이페이&amp;nbsp;리(Fei-Fei&amp;nbsp;Li)&amp;nbsp;&lt;/b&gt;연구실에서&amp;nbsp;나온&amp;nbsp;이미지넷(Imagenet)&amp;nbsp;데이터셋에서&amp;nbsp;시작되어,&amp;nbsp;이후&amp;nbsp;꾸준히&amp;nbsp;증가했죠.&amp;nbsp;현재의&amp;nbsp;모델들은&amp;nbsp;매우&amp;nbsp;많은&amp;nbsp;데이터를&amp;nbsp;필요로&amp;nbsp;합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;795&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/mvAWj/btsIcYZ2xr3/0oKKsMdhKyRPzZzaKxMfB0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/mvAWj/btsIcYZ2xr3/0oKKsMdhKyRPzZzaKxMfB0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/mvAWj/btsIcYZ2xr3/0oKKsMdhKyRPzZzaKxMfB0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FmvAWj%2FbtsIcYZ2xr3%2F0oKKsMdhKyRPzZzaKxMfB0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;563&quot; height=&quot;352&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;795&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;세&amp;nbsp;번째로&amp;nbsp;중요한&amp;nbsp;것은&amp;nbsp;&lt;b&gt;알고리즘&lt;/b&gt;입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;현재의&amp;nbsp;대형&amp;nbsp;언어&amp;nbsp;모델들은&amp;nbsp;두&amp;nbsp;단계로&amp;nbsp;훈련됩니다.&amp;nbsp;&lt;br /&gt;&lt;b&gt;사전&amp;nbsp;훈련(pre-training)과&amp;nbsp;후속&amp;nbsp;훈련(post-training)&lt;/b&gt;이죠.&amp;nbsp;대부분의&amp;nbsp;사람들이&amp;nbsp;자연스럽게&amp;nbsp;떠올리는&amp;nbsp;것은&amp;nbsp;사전&amp;nbsp;훈련&amp;nbsp;단계입니다.&amp;nbsp;이&amp;nbsp;단계에서는&amp;nbsp;수만&amp;nbsp;개&amp;nbsp;또는&amp;nbsp;수십만&amp;nbsp;개의&amp;nbsp;GPU를&amp;nbsp;사용하여&amp;nbsp;인터넷의&amp;nbsp;많은&amp;nbsp;데이터를&amp;nbsp;다운로드하고,&amp;nbsp;그&amp;nbsp;위에&amp;nbsp;거대한&amp;nbsp;신경망&amp;nbsp;또는&amp;nbsp;트랜스포머&amp;nbsp;기반&amp;nbsp;모델을&amp;nbsp;훈련시킵니다.&lt;br /&gt;&lt;br /&gt;두&amp;nbsp;번째&amp;nbsp;단계는&amp;nbsp;후속&amp;nbsp;훈련으로,&amp;nbsp;실제로&amp;nbsp;모델을&amp;nbsp;유용한&amp;nbsp;기능에&amp;nbsp;맞게&amp;nbsp;최적화하는&amp;nbsp;단계입니다.&amp;nbsp;이&amp;nbsp;후속&amp;nbsp;훈련&amp;nbsp;단계에서는&amp;nbsp;최&lt;b&gt;첨단&amp;nbsp;데이터(frontier&amp;nbsp;data)&lt;/b&gt;에&amp;nbsp;크게&amp;nbsp;의존합니다.&amp;nbsp;여기에서는&amp;nbsp;RLHF(인간&amp;nbsp;피드백을&amp;nbsp;통한&amp;nbsp;강화&amp;nbsp;학습)&amp;nbsp;및&amp;nbsp;SFT(지도형&amp;nbsp;미세&amp;nbsp;조정)와&amp;nbsp;같은&amp;nbsp;기법을&amp;nbsp;적용합니다.&amp;nbsp;여기서&amp;nbsp;고품질의&amp;nbsp;데이터를&amp;nbsp;활용하여&amp;nbsp;이러한&amp;nbsp;모델들이&amp;nbsp;코딩과&amp;nbsp;같은&amp;nbsp;매우&amp;nbsp;유용한&amp;nbsp;task에서&amp;nbsp;훨씬&amp;nbsp;더&amp;nbsp;잘&amp;nbsp;수행되도록&amp;nbsp;합니다.&lt;br /&gt;&lt;br /&gt;이&amp;nbsp;단계에서&amp;nbsp;많은&amp;nbsp;안전&amp;nbsp;통제가&amp;nbsp;이루어집니다.&amp;nbsp;후속&amp;nbsp;훈련의&amp;nbsp;두&amp;nbsp;번째&amp;nbsp;단계는&amp;nbsp;지난&amp;nbsp;2년&amp;nbsp;동안&amp;nbsp;대부분의&amp;nbsp;진보가&amp;nbsp;이루어진&amp;nbsp;곳입니다.&amp;nbsp;이는&amp;nbsp;업계에서는&amp;nbsp;잘&amp;nbsp;알려져&amp;nbsp;있지만,&amp;nbsp;다른&amp;nbsp;곳에서는&amp;nbsp;잘&amp;nbsp;알려지지&amp;nbsp;않았습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;GPT-4는&amp;nbsp;2022년&amp;nbsp;가을에&amp;nbsp;처음&amp;nbsp;훈련되었고,&amp;nbsp;그&amp;nbsp;이후로&amp;nbsp;GPT-4를&amp;nbsp;크게&amp;nbsp;능가하는&amp;nbsp;사전&amp;nbsp;훈련은&amp;nbsp;아직&amp;nbsp;이루어지지&amp;nbsp;않았습니다.&amp;nbsp;그&amp;nbsp;이후의&amp;nbsp;모든&amp;nbsp;진보는&amp;nbsp;이&amp;nbsp;후속&amp;nbsp;훈련&amp;nbsp;과정을&amp;nbsp;통해&amp;nbsp;이루어졌습니다.&amp;nbsp;(&amp;nbsp;하지만&amp;nbsp;최근&amp;nbsp;claude-3.5&amp;nbsp;sonnet&amp;nbsp;모델이&amp;nbsp;GPT-4를&amp;nbsp;압도했죠&amp;nbsp;!&amp;nbsp;)&lt;br /&gt;&lt;br /&gt;Epoch&amp;nbsp;AI에서&amp;nbsp;제공한&amp;nbsp;예제에서는&amp;nbsp;동일한&amp;nbsp;성능&amp;nbsp;향상을&amp;nbsp;이루기&amp;nbsp;위해&amp;nbsp;두&amp;nbsp;가지&amp;nbsp;접근&amp;nbsp;방법이&amp;nbsp;있습니다.&amp;nbsp;후속&amp;nbsp;훈련&amp;nbsp;강화(Post-Training&amp;nbsp;Enhancement,&amp;nbsp;PTE)&amp;nbsp;또는&amp;nbsp;사전&amp;nbsp;훈련&amp;nbsp;컴퓨트를&amp;nbsp;5배로&amp;nbsp;확장하는&amp;nbsp;것입니다.&amp;nbsp;이는&amp;nbsp;두&amp;nbsp;가지&amp;nbsp;방법&amp;nbsp;모두&amp;nbsp;유사한&amp;nbsp;성능&amp;nbsp;개선을&amp;nbsp;달성할&amp;nbsp;수&amp;nbsp;있음을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;1272&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b2nmLf/btsIeiJJfvL/fHVfXmp7lnl4N65gWc5Jkk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b2nmLf/btsIeiJJfvL/fHVfXmp7lnl4N65gWc5Jkk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b2nmLf/btsIeiJJfvL/fHVfXmp7lnl4N65gWc5Jkk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb2nmLf%2FbtsIeiJJfvL%2FfHVfXmp7lnl4N65gWc5Jkk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;610&quot; height=&quot;610&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;1272&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;후속 훈련(post training process)의 한계&amp;nbsp;&lt;/h3&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Alex&amp;nbsp;Wang&amp;nbsp;:&amp;nbsp;&amp;nbsp;연구&amp;nbsp;커뮤니티에서는&amp;nbsp;현재&amp;nbsp;상반된&amp;nbsp;답변이&amp;nbsp;있습니다.&amp;nbsp;솔직히&amp;nbsp;말해,&amp;nbsp;이는&amp;nbsp;이&amp;nbsp;분야에서&amp;nbsp;가장&amp;nbsp;큰&amp;nbsp;질문&amp;nbsp;중&amp;nbsp;하나입니다.&amp;nbsp;일부는&amp;nbsp;후속&amp;nbsp;훈련이&amp;nbsp;단지&amp;nbsp;모델에&amp;nbsp;이미&amp;nbsp;존재하는&amp;nbsp;지능의&amp;nbsp;많은&amp;nbsp;부분을&amp;nbsp;노출시키는&amp;nbsp;것이라고&amp;nbsp;믿습니다.&amp;nbsp;따라서&amp;nbsp;후속&amp;nbsp;훈련은&amp;nbsp;모델이&amp;nbsp;본질적으로&amp;nbsp;가지고&amp;nbsp;있지&amp;nbsp;않은&amp;nbsp;새로운&amp;nbsp;기술을&amp;nbsp;모델에&amp;nbsp;부여할&amp;nbsp;수&amp;nbsp;없다는&amp;nbsp;것입니다.&lt;br /&gt;&lt;br /&gt;GPT-3.5는&amp;nbsp;후속&amp;nbsp;훈련&amp;nbsp;과정을&amp;nbsp;통해&amp;nbsp;GPT-4가&amp;nbsp;처음&amp;nbsp;나왔을&amp;nbsp;때보다&amp;nbsp;더&amp;nbsp;나아졌습니다.&amp;nbsp;뛰어난&amp;nbsp;후속&amp;nbsp;훈련을&amp;nbsp;통해&amp;nbsp;많은&amp;nbsp;성능&amp;nbsp;한계를&amp;nbsp;극복할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;이로&amp;nbsp;인해&amp;nbsp;모델들이&amp;nbsp;개선된&amp;nbsp;코드&amp;nbsp;분석을&amp;nbsp;수행하고,&amp;nbsp;스스로&amp;nbsp;코드를&amp;nbsp;실행하며,&amp;nbsp;더&amp;nbsp;고급&amp;nbsp;에이전트&amp;nbsp;작업을&amp;nbsp;수행하고,&amp;nbsp;다양한&amp;nbsp;종류의&amp;nbsp;작업을&amp;nbsp;자동화할&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;되었습니다.&lt;br /&gt;&lt;br /&gt;QStar와&amp;nbsp;기타&amp;nbsp;최근&amp;nbsp;다양한&amp;nbsp;챗봇들은&amp;nbsp;AI&amp;nbsp;시스템이&amp;nbsp;국제&amp;nbsp;수학&amp;nbsp;올림피아드&amp;nbsp;수준의&amp;nbsp;문제를&amp;nbsp;해결하는&amp;nbsp;데&amp;nbsp;매우&amp;nbsp;근접하고&amp;nbsp;있음을&amp;nbsp;나타냅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Chinese&amp;nbsp;Espionage&amp;nbsp;and&amp;nbsp;the&amp;nbsp;Race&amp;nbsp;to&amp;nbsp;AG&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;데이터셋을&amp;nbsp;보호하기&amp;nbsp;위해&amp;nbsp;국가적&amp;nbsp;방어선을&amp;nbsp;구축할&amp;nbsp;필요가&amp;nbsp;있다고&amp;nbsp;생각하십니까?&amp;nbsp;&lt;br /&gt;&lt;br /&gt;산업&amp;nbsp;스파이&amp;nbsp;활동이&amp;nbsp;AI를&amp;nbsp;목표로&amp;nbsp;하고,&amp;nbsp;많은&amp;nbsp;똑똑한&amp;nbsp;중국&amp;nbsp;PhD,&amp;nbsp;전투기&amp;nbsp;조종사,&amp;nbsp;정보&amp;nbsp;분석가들이&amp;nbsp;뛰어난&amp;nbsp;데이터를&amp;nbsp;만들&amp;nbsp;수&amp;nbsp;있다고&amp;nbsp;가정한다면,&amp;nbsp;미국이&amp;nbsp;장기적이고&amp;nbsp;지속&amp;nbsp;가능한&amp;nbsp;데이터&amp;nbsp;우위를&amp;nbsp;개발할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;방법은&amp;nbsp;무엇인가요?&lt;br /&gt;&lt;br /&gt;미국은&amp;nbsp;최고의&amp;nbsp;인재들이&amp;nbsp;이주하고자&amp;nbsp;하는&amp;nbsp;매력적인&amp;nbsp;목적지입니다.&amp;nbsp;세계에서&amp;nbsp;가장&amp;nbsp;우수한&amp;nbsp;인재들이&amp;nbsp;미국으로&amp;nbsp;이주하고&amp;nbsp;싶어합니다.&amp;nbsp;이러한&amp;nbsp;흐름을&amp;nbsp;유지할&amp;nbsp;수&amp;nbsp;있다면,&amp;nbsp;미국은&amp;nbsp;이러한&amp;nbsp;최첨단&amp;nbsp;데이터셋을&amp;nbsp;강화하는&amp;nbsp;데&amp;nbsp;필요한&amp;nbsp;전문가&amp;nbsp;능력,&amp;nbsp;전문&amp;nbsp;지식,&amp;nbsp;뛰어난&amp;nbsp;인재들에&amp;nbsp;있어&amp;nbsp;근본적인&amp;nbsp;이점을&amp;nbsp;가질&amp;nbsp;것입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;산업&amp;nbsp;스파이&amp;nbsp;문제는&amp;nbsp;미국&amp;nbsp;발전의&amp;nbsp;근본적인&amp;nbsp;장애물입니다.&amp;nbsp;&lt;br /&gt;모든&amp;nbsp;AI&amp;nbsp;개발이&amp;nbsp;비공개&amp;nbsp;연구소에서&amp;nbsp;이루어지고&amp;nbsp;모든&amp;nbsp;비밀이&amp;nbsp;도난당한다면,&amp;nbsp;국가적인&amp;nbsp;이점을&amp;nbsp;구축하기에&amp;nbsp;어려움이&amp;nbsp;많습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;특히&amp;nbsp;많은&amp;nbsp;과학자들은&amp;nbsp;데이터나&amp;nbsp;지식을&amp;nbsp;클라우드&amp;nbsp;서비스를&amp;nbsp;통해&amp;nbsp;저장합니다.&amp;nbsp;&lt;br /&gt;모델이나&amp;nbsp;데이터&amp;nbsp;자체도&amp;nbsp;비트와&amp;nbsp;바이트로&amp;nbsp;이루어져&amp;nbsp;있기&amp;nbsp;때문에&amp;nbsp;전&amp;nbsp;세계의&amp;nbsp;모든&amp;nbsp;데이터&amp;nbsp;파일을&amp;nbsp;사용하더라도&amp;nbsp;결국&amp;nbsp;가중치&amp;nbsp;파일&amp;nbsp;하나로&amp;nbsp;귀결됩니다.&amp;nbsp;&lt;br /&gt;이러한&amp;nbsp;모델&amp;nbsp;가중치는&amp;nbsp;도난당할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;가능성이&amp;nbsp;높은&amp;nbsp;비트와&amp;nbsp;바이트로&amp;nbsp;이루어져&amp;nbsp;있습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;현재&amp;nbsp;많은&amp;nbsp;연구소나&amp;nbsp;회사의&amp;nbsp;보안&amp;nbsp;수준은&amp;nbsp;이런&amp;nbsp;가중치들을&amp;nbsp;비밀로&amp;nbsp;유지하는데&amp;nbsp;적합하지&amp;nbsp;않죠.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;최근&amp;nbsp;구글&amp;nbsp;엔지니어인&amp;nbsp;리언&amp;nbsp;딩은&amp;nbsp;구글에서&amp;nbsp;AI&amp;nbsp;인프라&amp;nbsp;작업을&amp;nbsp;하면서&amp;nbsp;TPU&amp;nbsp;v6&amp;nbsp;디자인과&amp;nbsp;많은&amp;nbsp;훈련&amp;nbsp;코드를&amp;nbsp;비롯한&amp;nbsp;여러&amp;nbsp;자료를&amp;nbsp;훔쳐&amp;nbsp;체포당했습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;Alex는&amp;nbsp;중국&amp;nbsp;공산당을&amp;nbsp;싫어하는&amp;nbsp;부모를&amp;nbsp;따라&amp;nbsp;미국으로&amp;nbsp;왔고,&amp;nbsp;미국에서&amp;nbsp;국가&amp;nbsp;안보&amp;nbsp;문제에&amp;nbsp;종사했다고&amp;nbsp;합니다.&amp;nbsp;로스&amp;nbsp;알라모스에서&amp;nbsp;자라며&amp;nbsp;국가&amp;nbsp;안보와&amp;nbsp;미국&amp;nbsp;방어에&amp;nbsp;대해&amp;nbsp;매우&amp;nbsp;열의가&amp;nbsp;많다고&amp;nbsp;밝혔죠.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;하지만&amp;nbsp;매번&amp;nbsp;대화&amp;nbsp;시작&amp;nbsp;전에&amp;nbsp;관계자들에게&amp;nbsp;&quot;저는&amp;nbsp;로스&amp;nbsp;알라모스에서&amp;nbsp;태어났습니다.&amp;nbsp;저의&amp;nbsp;부모님은&amp;nbsp;헌신적인&amp;nbsp;공무원이고,&amp;nbsp;미국이&amp;nbsp;AI&amp;nbsp;경쟁에서&amp;nbsp;승리하도록&amp;nbsp;만들고&amp;nbsp;싶습니다.&quot;&amp;nbsp;라고&amp;nbsp;말합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;인재는&amp;nbsp;중국을&amp;nbsp;떠나&amp;nbsp;미국으로&amp;nbsp;오고,&amp;nbsp;중국으로&amp;nbsp;돌아가지&amp;nbsp;않습니다.&amp;nbsp;대부분의&amp;nbsp;중국을&amp;nbsp;떠나는&amp;nbsp;사람들은&amp;nbsp;중국&amp;nbsp;공산당을&amp;nbsp;좋아하지&amp;nbsp;않으며,&amp;nbsp;돌아갈&amp;nbsp;생각이&amp;nbsp;없습니다.&lt;br /&gt;&lt;br /&gt;중국의&amp;nbsp;정책에서도&amp;nbsp;이를&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;과거에는&amp;nbsp;미국으로&amp;nbsp;대학원을&amp;nbsp;가도록&amp;nbsp;권장했지만,&amp;nbsp;돌아오는&amp;nbsp;사람이&amp;nbsp;적어서&amp;nbsp;이제는&amp;nbsp;러시아나&amp;nbsp;유럽으로&amp;nbsp;가도록&amp;nbsp;권장합니다.&lt;br /&gt;&lt;br /&gt;현재의&amp;nbsp;상황을&amp;nbsp;보면&amp;nbsp;미국이&amp;nbsp;승리할&amp;nbsp;가능성이&amp;nbsp;적다고&amp;nbsp;말합니다.&amp;nbsp;하지만&amp;nbsp;보안&amp;nbsp;문제를&amp;nbsp;해결하고&amp;nbsp;AI&amp;nbsp;노력의&amp;nbsp;보안에&amp;nbsp;자신감을&amp;nbsp;가질&amp;nbsp;수&amp;nbsp;있다면,&amp;nbsp;미국은&amp;nbsp;가능한&amp;nbsp;한&amp;nbsp;많은&amp;nbsp;고급&amp;nbsp;인재를&amp;nbsp;중국에서&amp;nbsp;받아들여야&amp;nbsp;합니다.&amp;nbsp;현재&amp;nbsp;중국은&amp;nbsp;세계&amp;nbsp;어느&amp;nbsp;나라보다&amp;nbsp;더&amp;nbsp;많은&amp;nbsp;고급&amp;nbsp;STEM&amp;nbsp;인재를&amp;nbsp;배출하고&amp;nbsp;있기&amp;nbsp;때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;959&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/vWeES/btsIcRGPQmc/kXqQsZvCApYKG8WY3dXlM1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/vWeES/btsIcRGPQmc/kXqQsZvCApYKG8WY3dXlM1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/vWeES/btsIcRGPQmc/kXqQsZvCApYKG8WY3dXlM1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FvWeES%2FbtsIcRGPQmc%2FkXqQsZvCApYKG8WY3dXlM1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;599&quot; height=&quot;452&quot; data-origin-width=&quot;1272&quot; data-origin-height=&quot;959&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Insight</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/122</guid>
      <comments>https://minyoungxi.tistory.com/122#entry122comment</comments>
      <pubDate>Wed, 26 Jun 2024 15:25:45 +0900</pubDate>
    </item>
    <item>
      <title>[Insight] Claude 3.5 Sonnet 발표. OpenAI를 압도하는 Antropic</title>
      <link>https://minyoungxi.tistory.com/121</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;Antropic ?!&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;엄청난&amp;nbsp;LLM&amp;nbsp;product가&amp;nbsp;또&amp;nbsp;출시되었습니다.&lt;br /&gt;매주마다&amp;nbsp;LLM&amp;nbsp;관련&amp;nbsp;다양한&amp;nbsp;논문들이&amp;nbsp;나오고&amp;nbsp;있는데요,&amp;nbsp;저번주에는&amp;nbsp;정말&amp;nbsp;엄청난&amp;nbsp;프로덕트가&amp;nbsp;출시되었네요.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;Antropic의&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet&amp;nbsp;출시&amp;nbsp;소식입니다.&lt;br /&gt;올해&amp;nbsp;3월&amp;nbsp;Antropic은&amp;nbsp;Claude&amp;nbsp;3.0&amp;nbsp;모델을&amp;nbsp;출시하면서&amp;nbsp;ChatGPT-4&amp;nbsp;보다&amp;nbsp;더&amp;nbsp;성능이&amp;nbsp;좋은&amp;nbsp;모델을&amp;nbsp;공개했습니다.&amp;nbsp;Claude3.0은&amp;nbsp;Opus,&amp;nbsp;Sonnet,&amp;nbsp;Haiku라는&amp;nbsp;3가지&amp;nbsp;모델로&amp;nbsp;이루어져&amp;nbsp;있는데요,&amp;nbsp;각&amp;nbsp;모델은&amp;nbsp;성능뿐만&amp;nbsp;아니라&amp;nbsp;윤리성&amp;nbsp;검증까지&amp;nbsp;마친&amp;nbsp;상태라고&amp;nbsp;했죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;엔트로픽은&amp;nbsp;OpenAI의&amp;nbsp;엔지니어들이&amp;nbsp;샘&amp;nbsp;알트만의&amp;nbsp;행보에&amp;nbsp;반대하여&amp;nbsp;퇴사&amp;nbsp;후&amp;nbsp;설립한&amp;nbsp;회사입니다.&amp;nbsp;(&amp;nbsp;샘&amp;nbsp;알트만의&amp;nbsp;영리화&amp;nbsp;정책&amp;nbsp;)&lt;br /&gt;Antropic은&amp;nbsp;OpenAI와&amp;nbsp;차별성을&amp;nbsp;두기&amp;nbsp;위해&amp;nbsp;공익회사임을&amp;nbsp;밝히고&amp;nbsp;회사의&amp;nbsp;미션을&amp;nbsp;&lt;b&gt;'인류에게&amp;nbsp;도움이&amp;nbsp;되는&amp;nbsp;대규모&amp;nbsp;AI&amp;nbsp;시스템을&amp;nbsp;구축한다!'&lt;/b&gt;입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;이런&amp;nbsp;AI&amp;nbsp;시스템은&amp;nbsp;안정성,&amp;nbsp;투명성,&amp;nbsp;윤리성에&amp;nbsp;가치를&amp;nbsp;두고&amp;nbsp;있어야&amp;nbsp;한다고&amp;nbsp;주장합니다.&amp;nbsp;처음에&amp;nbsp;이런&amp;nbsp;방식을&amp;nbsp;보고&amp;nbsp;정말&amp;nbsp;놀랐는데요,&amp;nbsp;자사만의&amp;nbsp;특별한&amp;nbsp;AI&amp;nbsp;학습&amp;nbsp;방식인&amp;nbsp;&lt;b&gt;'헌신적&amp;nbsp;구성-Constitutional&amp;nbsp;AI'&lt;/b&gt;을&amp;nbsp;개발했습니다.&amp;nbsp;이는&amp;nbsp;인공지능&amp;nbsp;모델이&amp;nbsp;스스로&amp;nbsp;윤리&amp;nbsp;원칙을&amp;nbsp;학습하도록&amp;nbsp;합니다.&amp;nbsp;기존의&amp;nbsp;단순한&amp;nbsp;방식과는&amp;nbsp;차별화된&amp;nbsp;학습&amp;nbsp;방식이죠.&lt;br /&gt;&lt;br /&gt;Antropic이 발표한 Claude는 2023년에 발표한 Cluade3을 기반으로 빠르게 버전업을 진행하고 있는 상태입니다. 그 중에서도 저번주에 발표한 Cluade 3.5 Sonnet은 정말 너무 놀라운 성능입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사실 처음 Claude와 ChatGPT를 사용해보면 Claude가 더 사용자 친화적인 인터페이스를 가지고 있고, 퍼포먼스나 개발자 친화적인 디테일 부분에서 Claude가 조금 더 우위에 있다고 생각합니다. 개발자 커뮤니티에서도 최근 'GPT4 다운그레이드' 된 것이 확인되었죠. OpenAI도 갑질을 할 것 같더니 ! Claude가 나타났네요.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;877&quot; data-origin-height=&quot;666&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bnmLMP/btsH9pJ0H75/9oztSqnmmpK3icex79uhV0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bnmLMP/btsH9pJ0H75/9oztSqnmmpK3icex79uhV0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bnmLMP/btsH9pJ0H75/9oztSqnmmpK3icex79uhV0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbnmLMP%2FbtsH9pJ0H75%2F9oztSqnmmpK3icex79uhV0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;616&quot; height=&quot;468&quot; data-origin-width=&quot;877&quot; data-origin-height=&quot;666&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;필자는&amp;nbsp;Cluade와&amp;nbsp;ChatGpt&amp;nbsp;모두&amp;nbsp;유료&amp;nbsp;결제를&amp;nbsp;통해&amp;nbsp;사용&amp;nbsp;중입니다.&amp;nbsp;&lt;br /&gt;가장&amp;nbsp;최근에&amp;nbsp;발표된&amp;nbsp;ChatGpt&amp;nbsp;4.0&amp;nbsp;o&amp;nbsp;모델의&amp;nbsp;쇼케이스도&amp;nbsp;인상깊게&amp;nbsp;보고&amp;nbsp;놀랐는데요.&amp;nbsp;막상&amp;nbsp;사용해보면&amp;nbsp;성능의&amp;nbsp;증가가&amp;nbsp;크게&amp;nbsp;체감되지는&amp;nbsp;않았습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;하지만&amp;nbsp;저번주에&amp;nbsp;출시한&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;Gpt-4o&amp;nbsp;보다&amp;nbsp;훨~씬&amp;nbsp;뛰어나다는&amp;nbsp;것을&amp;nbsp;직접&amp;nbsp;사용하면서&amp;nbsp;느끼게됩니다.&amp;nbsp;사실&amp;nbsp;체감상&amp;nbsp;뿐만&amp;nbsp;아니라&amp;nbsp;아래에서&amp;nbsp;보여주는&amp;nbsp;벤치마크를&amp;nbsp;참고하더라도&amp;nbsp;압도적인&amp;nbsp;성능을&amp;nbsp;보여주죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;디테일한&amp;nbsp;포인트들을&amp;nbsp;정리해봤습니다.&lt;br /&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;Anthropic에&amp;nbsp;따르면&amp;nbsp;여러&amp;nbsp;벤치마크에서&amp;nbsp;GPT-4o를&amp;nbsp;능가합니다.&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;새&amp;nbsp;모델은&amp;nbsp;텍스트와&amp;nbsp;이미지를&amp;nbsp;분석하고&amp;nbsp;텍스트를&amp;nbsp;생성할&amp;nbsp;수&amp;nbsp;있습니다.&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;이전&amp;nbsp;Cluade&amp;nbsp;3&amp;nbsp;Opus&amp;nbsp;모델에&amp;nbsp;비해&amp;nbsp;두&amp;nbsp;배&amp;nbsp;빠릅니다.&amp;nbsp;&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;200,000&amp;nbsp;토큰의&amp;nbsp;컨텍스트&amp;nbsp;창을&amp;nbsp;가지고&amp;nbsp;있습니다&amp;nbsp;(GPT-4o는&amp;nbsp;128K).&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;Anthropic은&amp;nbsp;AI&amp;nbsp;생성&amp;nbsp;콘텐츠&amp;nbsp;편집을&amp;nbsp;위한&amp;nbsp;새로운&amp;nbsp;작업&amp;nbsp;공간인&amp;nbsp;Artifacts를&amp;nbsp;도입했습니다.&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;이&amp;nbsp;모델은&amp;nbsp;현재&amp;nbsp;Anthropic의&amp;nbsp;웹&amp;nbsp;클라이언트,&amp;nbsp;iOS&amp;nbsp;앱,&amp;nbsp;및&amp;nbsp;API를&amp;nbsp;통해&amp;nbsp;이용할&amp;nbsp;수&amp;nbsp;있습니다.&lt;/i&gt;&lt;br /&gt;&lt;i&gt;-&amp;nbsp;더&amp;nbsp;나은&amp;nbsp;버전인&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Opus는&amp;nbsp;웹&amp;nbsp;검색&amp;nbsp;기능&amp;nbsp;등과&amp;nbsp;함께&amp;nbsp;곧&amp;nbsp;출시될&amp;nbsp;예정입니다.&lt;/i&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Pasted image 20240624090707.png&quot; data-origin-width=&quot;1200&quot; data-origin-height=&quot;1200&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/9ipct/btsIahYNRhy/K5Xe3ZoR9ajkVXKpbMwJC1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/9ipct/btsIahYNRhy/K5Xe3ZoR9ajkVXKpbMwJC1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/9ipct/btsIahYNRhy/K5Xe3ZoR9ajkVXKpbMwJC1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F9ipct%2FbtsIahYNRhy%2FK5Xe3ZoR9ajkVXKpbMwJC1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;643&quot; height=&quot;643&quot; data-filename=&quot;Pasted image 20240624090707.png&quot; data-origin-width=&quot;1200&quot; data-origin-height=&quot;1200&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기능적인&amp;nbsp;부분을&amp;nbsp;살펴볼까요?&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;대학원&amp;nbsp;수준의&amp;nbsp;추론(GPQA),&amp;nbsp;학부&amp;nbsp;수준의&amp;nbsp;지식(MMLU),&amp;nbsp;및&amp;nbsp;코딩&amp;nbsp;능력(HumanEval)에서&amp;nbsp;새로운&amp;nbsp;산업&amp;nbsp;벤치마크를&amp;nbsp;설정합니다.&lt;br /&gt;&lt;br /&gt;또한 더 친근해졌습니다 ! 미묘한 차이, 유머, 복잡한 지침을 이해하는 능력이 눈에 띄게 향상되었으며, 자연스럽고 공감할 수 있는 톤으로 고품질의 콘텐츠를 작성하는 데 뛰어납니다.&lt;br /&gt;&lt;br /&gt;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;Opus보다&amp;nbsp;훨씬&amp;nbsp;더&amp;nbsp;똑똑합니다.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;내부&amp;nbsp;에이전트&amp;nbsp;코딩&amp;nbsp;평가에서&amp;nbsp;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;64%의&amp;nbsp;문제를&amp;nbsp;해결했으며,&amp;nbsp;이는&amp;nbsp;38%를&amp;nbsp;해결한&amp;nbsp;Claude&amp;nbsp;3&amp;nbsp;Opus를&amp;nbsp;능가하는&amp;nbsp;성과입니다.&lt;br /&gt;&lt;br /&gt;Claude&amp;nbsp;3.5&amp;nbsp;Sonnet은&amp;nbsp;독립적으로&amp;nbsp;코드를&amp;nbsp;작성,&amp;nbsp;편집,&amp;nbsp;실행할&amp;nbsp;수&amp;nbsp;있으며,&amp;nbsp;정교한&amp;nbsp;추론&amp;nbsp;및&amp;nbsp;문제&amp;nbsp;해결&amp;nbsp;능력을&amp;nbsp;갖추고&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://www.youtube.com/watch?v=_ca2NUaJMmE&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.youtube.com/watch?v=_ca2NUaJMmE&lt;/a&gt;&lt;/p&gt;
&lt;figure data-ke-type=&quot;video&quot; data-ke-style=&quot;alignCenter&quot; data-video-host=&quot;youtube&quot; data-video-url=&quot;https://www.youtube.com/watch?v=_ca2NUaJMmE&quot; data-video-thumbnail=&quot;https://scrap.kakaocdn.net/dn/buIS9E/hyWoEs9QZN/YFv6IdoyhVGrbmE8HvhOqK/img.jpg?width=1280&amp;amp;height=720&amp;amp;face=0_0_1280_720&quot; data-video-width=&quot;860&quot; data-video-height=&quot;484&quot; data-video-origin-width=&quot;860&quot; data-video-origin-height=&quot;484&quot; data-ke-mobilestyle=&quot;widthContent&quot; data-video-title=&quot;Claude 3 5 Sonnet&quot; data-original-url=&quot;&quot;&gt;&lt;iframe src=&quot;https://www.youtube.com/embed/_ca2NUaJMmE&quot; width=&quot;860&quot; height=&quot;484&quot; frameborder=&quot;&quot; allowfullscreen=&quot;true&quot;&gt;&lt;/iframe&gt;
&lt;figcaption style=&quot;display: none;&quot;&gt;&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Toolset&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;1. 비정형 텍스트에서 구조화된 데이터 추출&lt;br /&gt;&lt;br /&gt;- 목적: 수동 데이터 입력을 줄이기 위해 인보이스에서 이름, 날짜, 금액 등을 추출합니다.&lt;br /&gt;- 예시 사용: 인보이스나 이메일에서 관련 정보를 추출하여 데이터 처리에 활용.&lt;br /&gt;&lt;br /&gt;2. 자연어 요청을 구조화된 API 호출로 변환&lt;br /&gt;&lt;br /&gt;- 목적: 팀이 간단한 명령으로 자주 사용하는 작업을 스스로 처리할 수 있게 합니다.&lt;br /&gt;- 예시 사용: &quot;구독 취소&quot;와 같은 명령을 구독 서비스의 API 호출로 변환.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;3. 데이터베이스 검색 또는 웹 API 사용으로 질문에 답변&lt;br /&gt;&lt;br /&gt;- 목적: 고객 지원 챗봇에서 즉각적이고 정확한 답변을 제공합니다.&lt;br /&gt;- 예시 사용: 고객 데이터베이스에서 데이터를 가져와 주문 상태에 대한 질문에 답변.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;4. 소프트웨어 API를 통한 간단한 작업 자동화&lt;br /&gt;&lt;br /&gt;- 목적: 데이터 입력이나 파일 관리에서 시간을 절약하고 오류를 최소화합니다.&lt;br /&gt;- 예시 사용: 새로운 데이터 입력으로 스프레드시트를 자동으로 업데이트.&lt;br /&gt;&lt;br /&gt;5. 세분화된 작업을 위한 다수의 빠른 클로드 서브에이전트 조정&lt;br /&gt;&lt;br /&gt;- 목적: 참석자의 가용성을 기반으로 최적의 회의 시간을 자동으로 찾습니다.&lt;br /&gt;- 예시 사용: 모든 참석자의 일정을 확인하여 회의를 조율.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Artifacts !!&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://www.youtube.com/watch?v=nIsvzIO3s8I&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.youtube.com/watch?v=nIsvzIO3s8I&lt;/a&gt;&lt;/p&gt;
&lt;figure data-ke-type=&quot;video&quot; data-ke-style=&quot;alignCenter&quot; data-video-host=&quot;youtube&quot; data-video-url=&quot;https://www.youtube.com/watch?v=nIsvzIO3s8I&quot; data-video-thumbnail=&quot;https://scrap.kakaocdn.net/dn/cxC2KM/hyWoIh2PQI/qdykLs9LBU6Rvrw1lZpA50/img.jpg?width=1280&amp;amp;height=720&amp;amp;face=196_162_450_440&quot; data-video-width=&quot;860&quot; data-video-height=&quot;484&quot; data-video-origin-width=&quot;860&quot; data-video-origin-height=&quot;484&quot; data-ke-mobilestyle=&quot;widthContent&quot; data-video-title=&quot;New Claude 3.5 DESTROYS OpenAI's GPT-4o In All Benchmarks!&quot; data-original-url=&quot;&quot;&gt;&lt;iframe src=&quot;https://www.youtube.com/embed/nIsvzIO3s8I&quot; width=&quot;860&quot; height=&quot;484&quot; frameborder=&quot;&quot; allowfullscreen=&quot;true&quot;&gt;&lt;/iframe&gt;
&lt;figcaption style=&quot;display: none;&quot;&gt;&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Anthropic은&amp;nbsp;Artifacts의&amp;nbsp;미리보기를&amp;nbsp;[&lt;a href=&quot;http://claude.ai](http://claude.ai)에서&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;http://claude.ai]에서&lt;/a&gt;&amp;nbsp;출시했습니다.&amp;nbsp;Artifacts를&amp;nbsp;통해&amp;nbsp;사용자는&amp;nbsp;문서,&amp;nbsp;코드,&amp;nbsp;Mermaid&amp;nbsp;다이어그램,&amp;nbsp;벡터&amp;nbsp;그래픽,&amp;nbsp;심지어&amp;nbsp;간단한&amp;nbsp;게임까지&amp;nbsp;생성하도록&amp;nbsp;Claude에게&amp;nbsp;요청할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;Artifacts는&amp;nbsp;채팅&amp;nbsp;옆에&amp;nbsp;나타나&amp;nbsp;실시간으로&amp;nbsp;생성물을&amp;nbsp;확인하고,&amp;nbsp;반복하며,&amp;nbsp;빌드할&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;해줍니다.&lt;br /&gt;&lt;br /&gt;Anthropic은&amp;nbsp;Artifacts가&amp;nbsp;Claude.ai의&amp;nbsp;더&amp;nbsp;큰&amp;nbsp;비전의&amp;nbsp;시작에&amp;nbsp;불과하다고&amp;nbsp;밝혔습니다.&amp;nbsp;이&amp;nbsp;인터페이스와&amp;nbsp;사용자&amp;nbsp;경험은&amp;nbsp;매우&amp;nbsp;만족스럽고,&amp;nbsp;곧&amp;nbsp;팀&amp;nbsp;협업을&amp;nbsp;지원하도록&amp;nbsp;확장될&amp;nbsp;예정입니다.&lt;br /&gt;&lt;br /&gt;미래에는&amp;nbsp;팀과&amp;nbsp;전체&amp;nbsp;조직이&amp;nbsp;지식을&amp;nbsp;중앙&amp;nbsp;집중화하고,&amp;nbsp;문서&amp;nbsp;및&amp;nbsp;진행&amp;nbsp;중인&amp;nbsp;작업을&amp;nbsp;공유된&amp;nbsp;공간에&amp;nbsp;안전하게&amp;nbsp;통합할&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;될&amp;nbsp;것입니다.&amp;nbsp;Claude는&amp;nbsp;필요할&amp;nbsp;때마다&amp;nbsp;팀원처럼&amp;nbsp;활동하며,&amp;nbsp;이는&amp;nbsp;기업&amp;nbsp;및&amp;nbsp;업무&amp;nbsp;환경에&amp;nbsp;매우&amp;nbsp;유용할&amp;nbsp;것으로&amp;nbsp;보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;&amp;nbsp;&lt;/h2&gt;</description>
      <category>Insight</category>
      <category>antropic</category>
      <category>claude</category>
      <category>Insight</category>
      <category>OpenAI</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/121</guid>
      <comments>https://minyoungxi.tistory.com/121#entry121comment</comments>
      <pubDate>Mon, 24 Jun 2024 09:43:20 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - SSM과 S4 모델들을 알아보자 ! ( + Transformer , Mamba ) - State Space Model for New-Generation Network Alternative to Transformers: A Survey</title>
      <link>https://minyoungxi.tistory.com/120</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;output.png&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bk8qco/btsH8CDpe20/RRc8UDn1QAgcSoqvr2l0e1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bk8qco/btsH8CDpe20/RRc8UDn1QAgcSoqvr2l0e1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bk8qco/btsH8CDpe20/RRc8UDn1QAgcSoqvr2l0e1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbk8qco%2FbtsH8CDpe20%2FRRc8UDn1QAgcSoqvr2l0e1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1580&quot; height=&quot;810&quot; data-filename=&quot;output.png&quot; data-origin-width=&quot;1580&quot; data-origin-height=&quot;810&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;SSM(Space State Model)은 뭐야 ?&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM은 기존 Transformer(&lt;a href=&quot;https://minyoungxi.tistory.com/104&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://minyoungxi.tistory.com/104&lt;/a&gt;) 기반 모델에 비해 다양한 작업에서 계산 비용이 낮으면서 큰 잠재력을 보이며 주목받고 있습니다. 제어 이론 및 계산 신경 과학에 뿌리를 두고 있으며, 동적 시스템을 상태 변수로 모델링하여 딥러닝에 적용됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇다면 Transformer의 문제는 무엇일까요 ?&amp;nbsp;&lt;br /&gt;Transormer는&amp;nbsp;Attention&amp;nbsp;기법을&amp;nbsp;통해서&amp;nbsp;일반적으로&amp;nbsp;장거리&amp;nbsp;종속성을&amp;nbsp;개선했지만,&amp;nbsp;&amp;nbsp;Transformer의&amp;nbsp;문제점은&amp;nbsp;유전체&amp;nbsp;또는&amp;nbsp;극도로&amp;nbsp;긴&amp;nbsp;텍스트와&amp;nbsp;같은&amp;nbsp;맥락에서는&amp;nbsp;확장이&amp;nbsp;잘&amp;nbsp;되지&amp;nbsp;않습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;814&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c6P51v/btsIaS5twlF/y5mwKwkAzdSkAtc1wTW7v1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c6P51v/btsIaS5twlF/y5mwKwkAzdSkAtc1wTW7v1/img.png&quot; data-alt=&quot;self attention 예시&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c6P51v/btsIaS5twlF/y5mwKwkAzdSkAtc1wTW7v1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc6P51v%2FbtsIaS5twlF%2Fy5mwKwkAzdSkAtc1wTW7v1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;438&quot; height=&quot;348&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;814&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;self attention 예시&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;왜 극도로 긴 input에서 느릴까 ? self-attention 매커니즘 때문. self-attention은 입력 시퀀스의 모든 토큰 쌍 사이의 상호작용을 계산해야 합니다. 이는 시퀀스의 길이가 $n$ 일 때, $O(n^2)$ 의 시간 복잡도를 가지며, 메모리 사용량도 동일하게 $O(n^2)$ 로 증가합니다. 따라서 입력 시퀀스가 길어질수록 연산량과 메모리 사용량이 기하급수적으로 증가합니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM은 최근 크게 주목받고 있는 Mamba 알고리즘의 self-attention과 같다고 볼 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;1차원 input을 입력받아서 잠재 공간에 매핑 후 다시 1차원 출력으로 내보내는 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1824&quot; data-origin-height=&quot;649&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/crvT7d/btsH8JI2YWM/3kNTtb8eVaSZKJM7OhBM20/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/crvT7d/btsH8JI2YWM/3kNTtb8eVaSZKJM7OhBM20/img.png&quot; data-alt=&quot;ssm equation&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/crvT7d/btsH8JI2YWM/3kNTtb8eVaSZKJM7OhBM20/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcrvT7d%2FbtsH8JI2YWM%2F3kNTtb8eVaSZKJM7OhBM20%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;416&quot; height=&quot;148&quot; data-origin-width=&quot;1824&quot; data-origin-height=&quot;649&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;ssm equation&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM은 긴 시퀀스를 효율적으로 모델링할 수 있으며, Transformer와 달리 메모리와 계산 자원을 덜 소모합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의 수식을 보면 선형적인 계산 복잡도를 가지고 있으며 , 효율적인 훈련을 위한 병렬적 계산이 가능합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 더 많은 메모리가 필요할 수 있으며 훈련 중에 그래디언트 소실 문제가 발생할 수도 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Deep SSM&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래에&amp;nbsp;나타난&amp;nbsp;상태공간&amp;nbsp;방정식은&amp;nbsp;1차원&amp;nbsp;입력&amp;nbsp;신호를&amp;nbsp;N&amp;nbsp;차원의&amp;nbsp;잠재&amp;nbsp;상태&amp;nbsp;$x(t)$&amp;nbsp;로&amp;nbsp;mapping&amp;nbsp;한&amp;nbsp;후에&amp;nbsp;1차원&amp;nbsp;출력&amp;nbsp;신호&amp;nbsp;$y(t)$&amp;nbsp;로&amp;nbsp;투영합니다.&amp;nbsp;즉,&amp;nbsp;입력&amp;nbsp;신호인&amp;nbsp;$u(t)$를&amp;nbsp;state&amp;nbsp;representation&amp;nbsp;vector&amp;nbsp;$x(t)$&amp;nbsp;와&amp;nbsp;출력&amp;nbsp;벡터&amp;nbsp;$y(t)$로&amp;nbsp;매핑하는&amp;nbsp;것이죠.&lt;br /&gt;&lt;br /&gt;$\acute{x}(t)&amp;nbsp;=&amp;nbsp;A(t)x(t)&amp;nbsp;+&amp;nbsp;B(t)u(t)$&amp;nbsp;-&amp;gt;&amp;nbsp;시간에&amp;nbsp;따른&amp;nbsp;$x(t)$의&amp;nbsp;변화량&lt;br /&gt;$y(t)&amp;nbsp;=&amp;nbsp;C(t)x(t)&amp;nbsp;+&amp;nbsp;D(t)u(t)$&lt;br /&gt;&lt;br /&gt;$x(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^n$,&amp;nbsp;$y(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^q$,&amp;nbsp;$u(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^p$&amp;nbsp;는&amp;nbsp;각각&amp;nbsp;상태&amp;nbsp;벡터,&amp;nbsp;출력&amp;nbsp;벡터,&amp;nbsp;입력&amp;nbsp;(또는&amp;nbsp;제어)&amp;nbsp;벡터를&amp;nbsp;나타냅니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$\dot{X}(t)&amp;nbsp;=&amp;nbsp;\frac{d}{dt}&amp;nbsp;X(t)$&lt;br /&gt;$A(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^{n&amp;nbsp;\times&amp;nbsp;n}$,&amp;nbsp;&lt;br /&gt;$B(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^{n&amp;nbsp;\times&amp;nbsp;p}$,&lt;br /&gt;$C(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^{q&amp;nbsp;\times&amp;nbsp;n}$,&amp;nbsp;그리고&amp;nbsp;$D(t)&amp;nbsp;\in&amp;nbsp;\mathbb{R}^{q&amp;nbsp;\times&amp;nbsp;p}$&amp;nbsp;는&amp;nbsp;각각&amp;nbsp;상태&amp;nbsp;행렬,&amp;nbsp;입력&amp;nbsp;행렬,&amp;nbsp;출력&amp;nbsp;행렬,&amp;nbsp;피드포워드&amp;nbsp;행렬을&amp;nbsp;나타냅니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;시스템&amp;nbsp;모델에&amp;nbsp;직접적인&amp;nbsp;전달&amp;nbsp;경로가&amp;nbsp;없을&amp;nbsp;때,&amp;nbsp;$D(t)$는&amp;nbsp;영&amp;nbsp;행렬이&amp;nbsp;되며,&amp;nbsp;따라서&amp;nbsp;다음과&amp;nbsp;같은&amp;nbsp;단순화된&amp;nbsp;방정식을&amp;nbsp;얻을&amp;nbsp;수&amp;nbsp;있습니다:&lt;br /&gt;&lt;br /&gt;$$&lt;br /&gt;\dot{X}(t)&amp;nbsp;=&amp;nbsp;A(t)X(t)&amp;nbsp;+&amp;nbsp;B(t)U(t)&lt;br /&gt;$$&lt;br /&gt;$$&lt;br /&gt;y(t)&amp;nbsp;=&amp;nbsp;C(t)X(t)&lt;br /&gt;$$&lt;br /&gt;&lt;br /&gt;시스템이&amp;nbsp;연속적이므로&amp;nbsp;컴퓨터에&amp;nbsp;입력하기&amp;nbsp;전에&amp;nbsp;이를&amp;nbsp;이산화(Discretion)해야&amp;nbsp;합니다.&amp;nbsp;Mamba&amp;nbsp;아키텍처에서는&amp;nbsp;영차&amp;nbsp;유지(Zero-Order&amp;nbsp;Hold,&amp;nbsp;ZOH)&amp;nbsp;방식을&amp;nbsp;채택하여&amp;nbsp;이산화합니다:&lt;br /&gt;&lt;br /&gt;$$&lt;br /&gt;X_t&amp;nbsp;=&amp;nbsp;\bar{A}&amp;nbsp;X_{t-1}&amp;nbsp;+&amp;nbsp;\bar{B}&amp;nbsp;U_t&lt;br /&gt;$$&lt;br /&gt;$$&lt;br /&gt;y_t&amp;nbsp;=&amp;nbsp;C&amp;nbsp;X_t&lt;br /&gt;$$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기서&amp;nbsp;&lt;br /&gt;$\bar{A}&amp;nbsp;=&amp;nbsp;\exp(\Delta&amp;nbsp;A)$,&lt;br /&gt;$\bar{B}&amp;nbsp;=&amp;nbsp;(\Delta&amp;nbsp;A)^{-1}(\exp(\Delta&amp;nbsp;A)&amp;nbsp;-&amp;nbsp;I)&amp;nbsp;\cdot&amp;nbsp;\Delta&amp;nbsp;B$,&lt;br /&gt;$\Delta$&amp;nbsp;는&amp;nbsp;스텝&amp;nbsp;크기를&amp;nbsp;나타냅니다.&lt;br /&gt;&lt;br /&gt;연속함수&amp;nbsp;$u(t)$&amp;nbsp;대신&amp;nbsp;이산&amp;nbsp;입력&amp;nbsp;시퀀스&amp;nbsp;($u_1$&amp;nbsp;,&amp;nbsp;$u_2$,&amp;nbsp;...&amp;nbsp;)에&amp;nbsp;적용하기&amp;nbsp;위해&amp;nbsp;SSM은&amp;nbsp;입력의&amp;nbsp;해상도를&amp;nbsp;나타내는&amp;nbsp;step&amp;nbsp;size로&amp;nbsp;이산화되어야&amp;nbsp;합니다.&lt;br /&gt;&lt;br /&gt;만약&amp;nbsp;$state$&amp;nbsp;$vector$와&amp;nbsp;$input$&amp;nbsp;$vector$를&amp;nbsp;$h$와&amp;nbsp;$x$를&amp;nbsp;사용하여&amp;nbsp;나타내고&amp;nbsp;싶다면&amp;nbsp;아래의&amp;nbsp;함수를&amp;nbsp;통해&amp;nbsp;RNN의&amp;nbsp;방식과&amp;nbsp;유사한&amp;nbsp;연산으로&amp;nbsp;나타낼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;br /&gt;function&amp;nbsp;to&amp;nbsp;function&amp;nbsp;이&amp;nbsp;아닌&amp;nbsp;sequence&amp;nbsp;to&amp;nbsp;sequence&amp;nbsp;mapping&amp;nbsp;으로&amp;nbsp;바뀌게&amp;nbsp;되고,&amp;nbsp;상태&amp;nbsp;방정식이&amp;nbsp;$x_k$&amp;nbsp;의&amp;nbsp;재귀적&amp;nbsp;표현이&amp;nbsp;되어&amp;nbsp;discrete&amp;nbsp;SSM을&amp;nbsp;RNN처럼&amp;nbsp;계산할&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;됩니다.&lt;br /&gt;&lt;br /&gt;$h_t&amp;nbsp;=&amp;nbsp;\bar{A}_t-1&amp;nbsp;+&amp;nbsp;\bar{B}x_t$&lt;br /&gt;$y_t&amp;nbsp;=&amp;nbsp;Ch_t$&lt;br /&gt;&lt;br /&gt;그러나&amp;nbsp;RNN&amp;nbsp;모델은&amp;nbsp;계산할&amp;nbsp;때&amp;nbsp;병렬화(parallelized)할&amp;nbsp;수&amp;nbsp;없는&amp;nbsp;문제에&amp;nbsp;직면합니다.&amp;nbsp;위의&amp;nbsp;수식을&amp;nbsp;단순히&amp;nbsp;확장하면&amp;nbsp;다음과&amp;nbsp;같습니다.&lt;br /&gt;&lt;br /&gt;$$&amp;nbsp;y_0&amp;nbsp;=&amp;nbsp;C&amp;nbsp;\bar{A}^0&amp;nbsp;\bar{B}x_0&amp;nbsp;$$&amp;nbsp;$$&amp;nbsp;y_1&amp;nbsp;=&amp;nbsp;C&amp;nbsp;\bar{A}^1&amp;nbsp;\bar{B}x_0&amp;nbsp;+&amp;nbsp;C&amp;nbsp;\bar{A}^0&amp;nbsp;\bar{B}x_1&amp;nbsp;$$&amp;nbsp;$$&amp;nbsp;y_2&amp;nbsp;=&amp;nbsp;C&amp;nbsp;\bar{A}^2&amp;nbsp;\bar{B}x_0&amp;nbsp;+&amp;nbsp;C&amp;nbsp;\bar{A}^1&amp;nbsp;\bar{B}x_1&amp;nbsp;+&amp;nbsp;C&amp;nbsp;\bar{A}^0&amp;nbsp;\bar{B}x_2&amp;nbsp;$$&lt;br /&gt;마지막 항과 끝에서 두 번째 항의 곱셈자는 항상 $C \bar{A}^0 \bar{B}$ 및 $C \bar{A}^1 \bar{B}$입니다. 따라서 우리는 이 곱셈자들을 &lt;b&gt;컨볼루션 커널&lt;/b&gt;로 취급할 수 있습니다:&lt;br /&gt;$$&amp;nbsp;\bar{K}&amp;nbsp;=&amp;nbsp;C&amp;nbsp;\bar{B}&amp;nbsp;\cdot&amp;nbsp;(\bar{A}^0,&amp;nbsp;\bar{A}^1,&amp;nbsp;\bar{A}^2,&amp;nbsp;\ldots,&amp;nbsp;\bar{A}^L)&amp;nbsp;$$&lt;br /&gt;여기서&amp;nbsp;$L$은&amp;nbsp;주어진&amp;nbsp;입력&amp;nbsp;시퀀스의&amp;nbsp;길이입니다.&amp;nbsp;우리는&amp;nbsp;식&amp;nbsp;(4)를&amp;nbsp;다음과&amp;nbsp;같은&amp;nbsp;컨볼루션&amp;nbsp;형식으로&amp;nbsp;다시&amp;nbsp;쓸&amp;nbsp;수&amp;nbsp;있습니다:&lt;br /&gt;$$&amp;nbsp;\bar{K}&amp;nbsp;=&amp;nbsp;(CB,&amp;nbsp;CAB,&amp;nbsp;\ldots,&amp;nbsp;CA^kB,&amp;nbsp;\ldots)&amp;nbsp;$$&amp;nbsp;$$&amp;nbsp;y&amp;nbsp;=&amp;nbsp;x&amp;nbsp;\ast&amp;nbsp;\bar{K}&amp;nbsp;$$&lt;br /&gt;이렇게&amp;nbsp;하면,&amp;nbsp;우리는&amp;nbsp;병렬&amp;nbsp;학습과&amp;nbsp;선형&amp;nbsp;복잡도의&amp;nbsp;반복&amp;nbsp;형식&amp;nbsp;추론에&amp;nbsp;적합한&amp;nbsp;완전한&amp;nbsp;SSM&amp;nbsp;모델을&amp;nbsp;얻을&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;됩니다.&amp;nbsp;Transformer&amp;nbsp;아키텍처에서는&amp;nbsp;문맥&amp;nbsp;정보가&amp;nbsp;유사도&amp;nbsp;행렬에&amp;nbsp;저장되지만,&amp;nbsp;SSM은&amp;nbsp;유사한&amp;nbsp;모듈이&amp;nbsp;없어&amp;nbsp;문맥&amp;nbsp;학습&amp;nbsp;성능이&amp;nbsp;떨어집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;위의 수식을 통해 SSM 모델의 계산 복잡도가 입력 시퀀스의 길이에 선형적으로 비례한다는 것을 확인할 수 있음. 따라서 이 모델은 입력 시퀀스의 길이에 따라 선형 복잡도를 가짐. 이와 같은 선형 복잡도를 통해 SSM 모델은 병렬 학습과 효율적인 추론을 실현할 수 있음.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Transformer&amp;nbsp;모델에서&amp;nbsp;주로&amp;nbsp;사용되는&amp;nbsp;self-attention의&amp;nbsp;계산&amp;nbsp;복잡도는&amp;nbsp;$O(n^2d)$&amp;nbsp;입니다.&amp;nbsp;$n$은&amp;nbsp;시퀀스의&amp;nbsp;길이&amp;nbsp;,&amp;nbsp;$d$는&amp;nbsp;임베딩&amp;nbsp;차원입니다.&amp;nbsp;즉,&amp;nbsp;시퀀스의&amp;nbsp;길이에&amp;nbsp;대해&amp;nbsp;제곱에&amp;nbsp;비례하여&amp;nbsp;계산&amp;nbsp;복잡도가&amp;nbsp;증가하는&amp;nbsp;것이죠.&amp;nbsp;&lt;br /&gt;반면,&amp;nbsp;SSM&amp;nbsp;모델의&amp;nbsp;계산&amp;nbsp;복잡도는&amp;nbsp;$O(nd)$&amp;nbsp;이므로&amp;nbsp;시퀀스의&amp;nbsp;길이에&amp;nbsp;대해&amp;nbsp;선형적으로&amp;nbsp;계산&amp;nbsp;복잡도가&amp;nbsp;증가합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM의&amp;nbsp;다양한&amp;nbsp;변형이&amp;nbsp;존재하며,&amp;nbsp;이들은&amp;nbsp;특정&amp;nbsp;응용&amp;nbsp;분야에&amp;nbsp;맞게&amp;nbsp;최적화되었습니다.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;Kalman&amp;nbsp;필터는&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;모델의&amp;nbsp;대표적인&amp;nbsp;변형&amp;nbsp;중&amp;nbsp;하나로,&amp;nbsp;잡음이&amp;nbsp;포함된&amp;nbsp;시스템의&amp;nbsp;상태를&amp;nbsp;추정하는&amp;nbsp;데&amp;nbsp;사용됩니다.&amp;nbsp;또한,&amp;nbsp;확장된&amp;nbsp;Kalman&amp;nbsp;필터(Extended&amp;nbsp;Kalman&amp;nbsp;Filter,&amp;nbsp;EKF)와&amp;nbsp;무향&amp;nbsp;Kalman&amp;nbsp;필터(Unscented&amp;nbsp;Kalman&amp;nbsp;Filter,&amp;nbsp;UKF)와&amp;nbsp;같은&amp;nbsp;비선형&amp;nbsp;변형도&amp;nbsp;존재합니다.&lt;br /&gt;&lt;br /&gt;최근에는&amp;nbsp;SSM의&amp;nbsp;개념을&amp;nbsp;딥러닝&amp;nbsp;모델에&amp;nbsp;통합하려는&amp;nbsp;시도가&amp;nbsp;이어지고&amp;nbsp;있습니다.&amp;nbsp;특히,&amp;nbsp;SSM은&amp;nbsp;긴&amp;nbsp;시퀀스&amp;nbsp;데이터를&amp;nbsp;처리하는&amp;nbsp;데&amp;nbsp;있어&amp;nbsp;계산&amp;nbsp;복잡도를&amp;nbsp;낮추는&amp;nbsp;데&amp;nbsp;강점을&amp;nbsp;보입니다.&amp;nbsp;이러한&amp;nbsp;이유로&amp;nbsp;SSM은&amp;nbsp;Transformer&amp;nbsp;모델의&amp;nbsp;대안으로&amp;nbsp;주목받고&amp;nbsp;있으며,&amp;nbsp;다양한&amp;nbsp;연구자들이&amp;nbsp;이를&amp;nbsp;개선하고&amp;nbsp;최적화하려는&amp;nbsp;노력을&amp;nbsp;기울이고&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 style=&quot;color: #000000; text-align: start;&quot; data-ke-size=&quot;size26&quot;&gt;HiPPO&amp;nbsp;&lt;/h2&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;HiPPO는 SSM 논문들 중 가장 흥미롭게 읽은 논문입니다. HiPPO 이전에&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;a style=&quot;color: #0070d1;&quot; href=&quot;https://arxiv.org/pdf/2102.11417&quot;&gt;Parallelizing Legendre Memory Unit Training(LMU)&lt;/a&gt;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;라는 논문이 있는데요, 해당 논문에서는 RNN의 단점 중 하나인 병렬화 불가능 문제를 linear recurrence convolution으로 해결하는 시도를 했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot;&gt;만약 우리가 특정 input의 이전/이후 state를 가져올 수 있는 딜레이 구조의 시스템을 구축할 수 있다면, 해당 시스템의 output으로 input의 recurrence 구조를 확보할 수 있다는 장점이 생깁니다. 우리는 Linear system을 찾고자 하기 때문에 (애초에 학습하고자 하는 신경망 연산 자체가 텐서 및 행렬 기반이기 때문이라 생각하면 편합니다), 다음과 같이 네 개의 matrices&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: left;&quot; data-mathml=&quot;&amp;lt;math xmlns=&amp;quot;http://www.w3.org/1998/Math/MathML&amp;quot;&amp;gt;&amp;lt;mo&amp;gt;&amp;amp;lt;&amp;lt;/mo&amp;gt;&amp;lt;mi&amp;gt;A&amp;lt;/mi&amp;gt;&amp;lt;mo&amp;gt;,&amp;lt;/mo&amp;gt;&amp;lt;mi&amp;gt;B&amp;lt;/mi&amp;gt;&amp;lt;mo&amp;gt;,&amp;lt;/mo&amp;gt;&amp;lt;mi&amp;gt;C&amp;lt;/mi&amp;gt;&amp;lt;mo&amp;gt;,&amp;lt;/mo&amp;gt;&amp;lt;mi&amp;gt;D&amp;lt;/mi&amp;gt;&amp;lt;mo&amp;gt;&amp;amp;gt;&amp;lt;/mo&amp;gt;&amp;lt;/math&amp;gt;&quot;&gt;&lt;span aria-hidden=&quot;true&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&amp;lt;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;A&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;,&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;B&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;,&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;C&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;,&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;D&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;text-align: left;&quot;&gt;&amp;gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot;&gt;로 표현되는&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;b&gt;LTI system을 찾는 것&lt;/b&gt;&lt;span style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot;&gt;이 목표가 됩니다.&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;span style=&quot;color: #4a4a4a;&quot;&gt;&lt;span style=&quot;background-color: #ffffff;&quot;&gt;요약하자면, 이상적인 딜레이 시스템을 LTI 시스템으로 구축하여 표현한 것이 기존의 Linear State Machine 디자인이었고, 이를 다시 non-linear neural network system을 사용하여 학습한 것이 LMU 구조입니다.&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;HiPPO는&amp;nbsp;polynomial&amp;nbsp;bases에&amp;nbsp;projection을&amp;nbsp;해서&amp;nbsp;continuous-signal과&amp;nbsp;discrete-signal을&amp;nbsp;online하게&amp;nbsp;compression&amp;nbsp;합니다.&amp;nbsp;HiPPO&amp;nbsp;모델을&amp;nbsp;요약하자면,&amp;nbsp;고차&amp;nbsp;다항식&amp;nbsp;프로젝션&amp;nbsp;연산자를&amp;nbsp;사용하여&amp;nbsp;시퀀스&amp;nbsp;데이터의&amp;nbsp;정보를&amp;nbsp;압축하고&amp;nbsp;모델의&amp;nbsp;효율성을&amp;nbsp;높이는&amp;nbsp;알고리즘입니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&amp;gt;&amp;nbsp;HiPPO&amp;nbsp;model&amp;nbsp;combines&amp;nbsp;the&amp;nbsp;concepts&amp;nbsp;of&amp;nbsp;Recurrent&amp;nbsp;Memory&amp;nbsp;and&amp;nbsp;Optimal&amp;nbsp;Polynomial&amp;nbsp;Projections,&amp;nbsp;which&amp;nbsp;can&amp;nbsp;significantly&amp;nbsp;improve&amp;nbsp;the&amp;nbsp;performance&amp;nbsp;of&amp;nbsp;recursive&amp;nbsp;memory,&amp;nbsp;This&amp;nbsp;mechanism&amp;nbsp;is&amp;nbsp;very&amp;nbsp;helpful&amp;nbsp;for&amp;nbsp;SSM&amp;nbsp;to&amp;nbsp;handle&amp;nbsp;long&amp;nbsp;sequences&amp;nbsp;and&amp;nbsp;long-term&amp;nbsp;dependencies.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;HiPPO&amp;nbsp;논문을&amp;nbsp;보시게&amp;nbsp;되면&amp;nbsp;정말&amp;nbsp;많은&amp;nbsp;수식들을&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;있습니다.&lt;br /&gt;&lt;br /&gt;각&amp;nbsp;time&amp;nbsp;step의&amp;nbsp;중요도&amp;nbsp;measurement가&amp;nbsp;정의되면,&amp;nbsp;HiPPO는&amp;nbsp;&quot;natural&amp;nbsp;online&amp;nbsp;function&amp;nbsp;approximation&amp;nbsp;problem&quot;의&amp;nbsp;optional&amp;nbsp;solution을&amp;nbsp;찾아냅니다.&amp;nbsp;아래의&amp;nbsp;그림처럼&amp;nbsp;$f(t)$라는&amp;nbsp;ground&amp;nbsp;truth&amp;nbsp;input이&amp;nbsp;주어졌을&amp;nbsp;때,&amp;nbsp;정보의&amp;nbsp;손실을&amp;nbsp;최소화하는&amp;nbsp;방향으로&amp;nbsp;$g(t)$를&amp;nbsp;얻어낼&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;이때,&amp;nbsp;$g(t)$는&amp;nbsp;orthogonal&amp;nbsp;polynomials(OP)를&amp;nbsp;활용해서&amp;nbsp;구할&amp;nbsp;수&amp;nbsp;있습니다.&lt;br /&gt;&lt;br /&gt;모든&amp;nbsp;시간&amp;nbsp;$t$&amp;nbsp;에는&amp;nbsp;$f$를&amp;nbsp;polynomial-space로&amp;nbsp;optimal&amp;nbsp;projection&amp;nbsp;하는&amp;nbsp;$g(t)$가&amp;nbsp;있는&amp;nbsp;것이죠.&amp;nbsp;아래의의&amp;nbsp;예시에서는&amp;nbsp;orthogonal&amp;nbsp;polynomial&amp;nbsp;basis(OP&amp;nbsp;basis)가&amp;nbsp;4개입니다.&amp;nbsp;각각의&amp;nbsp;coefficient&amp;nbsp;$c(t)$는&amp;nbsp;해당&amp;nbsp;시점에서&amp;nbsp;OP&amp;nbsp;basis에&amp;nbsp;사영(projection)된&amp;nbsp;값을&amp;nbsp;나타냅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;467&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/l5ntZ/btsH8VigIxJ/he4alH0Xckd9JssuvyUy60/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/l5ntZ/btsH8VigIxJ/he4alH0Xckd9JssuvyUy60/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/l5ntZ/btsH8VigIxJ/he4alH0Xckd9JssuvyUy60/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fl5ntZ%2FbtsH8VigIxJ%2Fhe4alH0Xckd9JssuvyUy60%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;616&quot; height=&quot;225&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;467&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$C(t)$는&amp;nbsp;HiPPO에서&amp;nbsp;모든&amp;nbsp;시간&amp;nbsp;t에&amp;nbsp;대해&amp;nbsp;0~$t$&amp;nbsp;시간에&amp;nbsp;대한&amp;nbsp;정보의&amp;nbsp;총합으로&amp;nbsp;볼&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;$C_t$&amp;nbsp;를&amp;nbsp;유지하기&amp;nbsp;위한&amp;nbsp;프레임워크&amp;nbsp;입니다.&amp;nbsp;적절한&amp;nbsp;bias를&amp;nbsp;선택함으로써&amp;nbsp;$C(t)$&amp;nbsp;는&amp;nbsp;history를&amp;nbsp;나타내게&amp;nbsp;됩니다.&amp;nbsp;(&amp;nbsp;$C_t$&amp;nbsp;와&amp;nbsp;$t$&amp;nbsp;시점의&amp;nbsp;출력&amp;nbsp;$f_t$&amp;nbsp;의&amp;nbsp;선형&amp;nbsp;조합을&amp;nbsp;통해&amp;nbsp;$C_t+1$&amp;nbsp;을&amp;nbsp;생성합니다.)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;HiPPO를&amp;nbsp;행렬&amp;nbsp;형태로&amp;nbsp;구현하여&amp;nbsp;SSM에&amp;nbsp;적용하면&amp;nbsp;SSM의&amp;nbsp;성능을&amp;nbsp;크게&amp;nbsp;향상시킬&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;br /&gt;이전&amp;nbsp;연구의&amp;nbsp;문제는&amp;nbsp;SSM이&amp;nbsp;실제로&amp;nbsp;성능이&amp;nbsp;매우&amp;nbsp;낮다는&amp;nbsp;것이었죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;Sequence의&amp;nbsp;길이에&amp;nbsp;따라서&amp;nbsp;기울기(gradient)가&amp;nbsp;기하급수적으로&amp;nbsp;증가/감소하는&amp;nbsp;문제가&amp;nbsp;발생했습니다.&amp;nbsp;&lt;br /&gt;-&amp;nbsp;Discrete-time&amp;nbsp;SSM을&amp;nbsp;보면&amp;nbsp;이산&amp;nbsp;시간&amp;nbsp;간격&amp;nbsp;$\Delta$&amp;nbsp;에&amp;nbsp;대한&amp;nbsp;$A$를&amp;nbsp;$\bar&amp;nbsp;A$&amp;nbsp;로&amp;nbsp;표기한다는&amp;nbsp;것이죠.&amp;nbsp;Continuous-time&amp;nbsp;에서는&amp;nbsp;현재&amp;nbsp;상태&amp;nbsp;$x(t)$&amp;nbsp;를&amp;nbsp;사용하여&amp;nbsp;$y$를&amp;nbsp;계산하고,&amp;nbsp;Discrete-time&amp;nbsp;에서는&amp;nbsp;업데이트한&amp;nbsp;후에&amp;nbsp;업데이트&amp;nbsp;된&amp;nbsp;$x$&amp;nbsp;를&amp;nbsp;사용하여&amp;nbsp;$y$를&amp;nbsp;계산합니다.&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Summary&amp;nbsp;&lt;/h3&gt;
&lt;p style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;HiPPO(High-order Polynomial Projection Operator)&lt;/b&gt; 방법은 연속 함수 $f$를 Hilbert 공간 $u$에서 예측 함수 $g$의 서브스페이스로 변환하여 이를 적절한 벡터 기반의 계수 배열로 표현하는 방법입니다. 이를 통해 연속 시간 미분 방적식을 LTI(선형 시불변) 시스템의 미분 방정식으로 변환할 수 있습니다. 이 과정에서 시스템의 주축이 되는 함수 $A(t)$와 $B(t)$의 형태를 결정하여 시퀀스 메모리의 중요도를 매핑합니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot; data-ke-size=&quot;size16&quot;&gt;기존의 LMU(LeGendre Memory Unit)는 특정 슬라이딩 윈도우 크기 $\theta$ 를 가지는 이상적인 딜레이 시스템의 LTI 미분 방정식을 이산화하여 사용하지만, HiPPO는 이를 연속 시간 메모리화로 일반화한 것입니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;S4&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;S4&amp;nbsp;모델은&amp;nbsp;이러한&amp;nbsp;제한을&amp;nbsp;해결하기&amp;nbsp;위해&amp;nbsp;구축되었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;&lt;i&gt;Method: Structured State Spaces (S4)&lt;/i&gt;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Efficiently Modeling Long Sequences with Structured State Spaces&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;LSSL은&amp;nbsp;state&amp;nbsp;space&amp;nbsp;model&amp;nbsp;(SSM)&amp;nbsp;을&amp;nbsp;Simulating&amp;nbsp;하느라&amp;nbsp;느리고&amp;nbsp;memory도&amp;nbsp;많이&amp;nbsp;차지한다고&amp;nbsp;합니다.&amp;nbsp;이를&amp;nbsp;해결하기&amp;nbsp;위해&amp;nbsp;S4&amp;nbsp;모델을&amp;nbsp;제안합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;LSSL은 선형 상태 공간 모델로, 시간 시계열 데이터나 연속된 데이터의 학습 및 예측에 많이 사용됩니다. LSSL의 주요 문제점은 다음과 같습니다:&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&amp;bull; 느린 계산 속도: 상태 공간 모델은 일반적으로 연산 복잡도가 높아 학습과 예측 과정에서 시간이 많이 소요됩니다.&lt;br /&gt;&amp;bull; 높은 메모리 사용: 상태 공간 모델은 많은 파라미터를 다루어야 하므로 메모리 사용량이 많습니다.&lt;br /&gt;&lt;br /&gt;LSSL&amp;nbsp;에서는&amp;nbsp;state&amp;nbsp;matrix&amp;nbsp;A를&amp;nbsp;구하기&amp;nbsp;위해&amp;nbsp;L&amp;nbsp;개의&amp;nbsp;successive&amp;nbsp;multiplication&amp;nbsp;(연속&amp;nbsp;곱셈)을&amp;nbsp;수행해야&amp;nbsp;하는데,&amp;nbsp;이는&amp;nbsp;계산&amp;nbsp;복잡도가&amp;nbsp;높아져&amp;nbsp;Bottle&amp;nbsp;neck&amp;nbsp;현상을&amp;nbsp;일으킵니다.&amp;nbsp;-&amp;gt;&amp;nbsp;A를&amp;nbsp;여러번&amp;nbsp;곱하는&amp;nbsp;과정은&amp;nbsp;시간&amp;nbsp;복잡도가&amp;nbsp;$O(L)$&amp;nbsp;로,&amp;nbsp;L이&amp;nbsp;커질수록&amp;nbsp;계산이&amp;nbsp;매우&amp;nbsp;느려집니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;LSSL의&amp;nbsp;문제를&amp;nbsp;해결하기&amp;nbsp;위해&amp;nbsp;A를&amp;nbsp;canonical&amp;nbsp;form으로&amp;nbsp;변환하면&amp;nbsp;계산&amp;nbsp;효율성을&amp;nbsp;크게&amp;nbsp;향상시킬&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;A를&amp;nbsp;대각행렬(diagonal&amp;nbsp;matrix)으로&amp;nbsp;만들면,&amp;nbsp;행렬&amp;nbsp;곱셈이&amp;nbsp;대각&amp;nbsp;원소들&amp;nbsp;간의&amp;nbsp;곱셈으로&amp;nbsp;단순화되어&amp;nbsp;계산이&amp;nbsp;훨씬&amp;nbsp;빠르고&amp;nbsp;tractable&amp;nbsp;합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;S4는&amp;nbsp;A&amp;nbsp;matrix에&amp;nbsp;low-rank&amp;nbsp;correction&amp;nbsp;(stably&amp;nbsp;diagonalized)를&amp;nbsp;적용하고,&amp;nbsp;cauchy&amp;nbsp;kernel을&amp;nbsp;이용해서&amp;nbsp;SSM&amp;nbsp;computation을&amp;nbsp;낮춥니다.&amp;nbsp;Path-X&amp;nbsp;문제를&amp;nbsp;풀어냈고,&amp;nbsp;LRA에서&amp;nbsp;SOTA를&amp;nbsp;달성하게&amp;nbsp;됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&amp;gt; 대각 행렬을 이용하면 계산이 훨씬 단순하고 효율적입니다. 하지만 일반 행렬을 대각화하는 것은 쉽지 않죠. 실제로는 다양한 수학적 기법과 최적화가 필요합니다. S4 모델에서는 이러한 문제를 해결하기 위해 low-rank correlation과 같은 기법을 사용하여 계산 효율성을 높입니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;338&quot; data-origin-height=&quot;118&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bhhQ0H/btsH81o6qlb/RJxYEbNWAl12tQ0PVDtdI0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bhhQ0H/btsH81o6qlb/RJxYEbNWAl12tQ0PVDtdI0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bhhQ0H/btsH81o6qlb/RJxYEbNWAl12tQ0PVDtdI0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbhhQ0H%2FbtsH81o6qlb%2FRJxYEbNWAl12tQ0PVDtdI0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;338&quot; height=&quot;118&quot; data-origin-width=&quot;338&quot; data-origin-height=&quot;118&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;br /&gt;논문에는 수식이 너무 많습니다. 어쨌든 HiPPO matrices (A matrix in SSM) 들을 diagonalize 하는 데 성공했고, 이를 이용해서 굉장히 빠른 속도, 성능을 낼 수 있다는 것입니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;아래의&amp;nbsp;결과를&amp;nbsp;보면&amp;nbsp;확실히&amp;nbsp;LSSL에&amp;nbsp;비해&amp;nbsp;학습&amp;nbsp;단계에서&amp;nbsp;소요&amp;nbsp;시간과&amp;nbsp;메모리&amp;nbsp;할당량&amp;nbsp;모두에서&amp;nbsp;훨씬&amp;nbsp;효율적인&amp;nbsp;것을&amp;nbsp;알&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;특히,&amp;nbsp;차원이&amp;nbsp;커질수록&amp;nbsp;S4의&amp;nbsp;효율성이&amp;nbsp;더욱&amp;nbsp;두드러지게&amp;nbsp;나타납니다.&amp;nbsp;512&amp;nbsp;차원에서&amp;nbsp;S4는&amp;nbsp;학습&amp;nbsp;시간이&amp;nbsp;29.6배&amp;nbsp;더&amp;nbsp;빠르고,&amp;nbsp;메모리&amp;nbsp;사용량은&amp;nbsp;392배&amp;nbsp;더&amp;nbsp;적네요.&lt;br /&gt;&lt;br /&gt;또한&amp;nbsp;Transformer&amp;nbsp;모델&amp;nbsp;대비&amp;nbsp;입력&amp;nbsp;시퀀스&amp;nbsp;길이&amp;nbsp;1024에서는&amp;nbsp;1.58배&amp;nbsp;더&amp;nbsp;빠르며,&amp;nbsp;길이&amp;nbsp;4096에서는&amp;nbsp;5.19배&amp;nbsp;더&amp;nbsp;빠릅니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;결론적으로&amp;nbsp;S4&amp;nbsp;모델은&amp;nbsp;Transformer&amp;nbsp;모델에&amp;nbsp;비해&amp;nbsp;큰&amp;nbsp;시퀀스&amp;nbsp;길이에서&amp;nbsp;훨씬&amp;nbsp;더&amp;nbsp;빠르고&amp;nbsp;메모리&amp;nbsp;효율적입니다.&amp;nbsp;특히,&amp;nbsp;길이가&amp;nbsp;길어질수록&amp;nbsp;S4의&amp;nbsp;효율성이&amp;nbsp;두드러집니다.&amp;nbsp;이는&amp;nbsp;S4&amp;nbsp;모델이&amp;nbsp;실제&amp;nbsp;대규모&amp;nbsp;시퀀스&amp;nbsp;데이터를&amp;nbsp;처리하는&amp;nbsp;데&amp;nbsp;매우&amp;nbsp;유리할&amp;nbsp;것&amp;nbsp;같습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Pasted image 20240617162840.png&quot; data-origin-width=&quot;1335&quot; data-origin-height=&quot;352&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/3HDlH/btsH85kJH4l/AiDTXiSyJ8LWFBjdwIQUA0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/3HDlH/btsH85kJH4l/AiDTXiSyJ8LWFBjdwIQUA0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/3HDlH/btsH85kJH4l/AiDTXiSyJ8LWFBjdwIQUA0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F3HDlH%2FbtsH85kJH4l%2FAiDTXiSyJ8LWFBjdwIQUA0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1335&quot; height=&quot;352&quot; data-filename=&quot;Pasted image 20240617162840.png&quot; data-origin-width=&quot;1335&quot; data-origin-height=&quot;352&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Review&lt;/h2&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;&lt;br /&gt;모든 딥러닝 모델들에는 수많은 수식이 있지만, 특히 이번에 리뷰할 때 주로 읽었던 State Space Model for New-Generation Network Alternative to Transformers: A Survey : &lt;a title=&quot;State Space Model for New-Generation Network Alternative to Transformers: A Survey&quot; href=&quot;https://arxiv.org/abs/2404.09516&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot;&gt;https://arxiv.org/abs/2404.09516&lt;/a&gt;&lt;br /&gt;논문과 각각의 개별 논문들 ( HiPPO, LSSL 등 ) 은 특히 너무 많은 수식으로 인해 어려움을 많이 겪었습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;span style=&quot;background-color: #ffffff; color: #4a4a4a; text-align: justify;&quot;&gt;Continuous time memorization 에 대한 근사화(approximation)는 HiPPO 그리고 LSSL 논문에서 공통적으로 가지는 이론적/기술적 배경에 해당됩니다. 다음 논문 리뷰에서는 연속 시간 모델링을 이산 시간 모델로 근사화 혹은 다운 샘플링하는 과정에 대해서 깊게 이해해볼까 합니다. Mamba에서는 ZOH 방법을 사용한다고만 간단하게 나와있는데, SSM의 발전 과정과 앞으로의 논문 이해를 위해 한 번 짚어보고 가야할 것 같네요 !&amp;nbsp;&lt;/span&gt;&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <category>lssl</category>
      <category>mamba</category>
      <category>S4</category>
      <category>SSM</category>
      <category>transformer</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/120</guid>
      <comments>https://minyoungxi.tistory.com/120#entry120comment</comments>
      <pubDate>Mon, 24 Jun 2024 06:17:48 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] FlashAttention-2: Faster Attention with Better Parallelism and Work Partitioning - 더 빠르고 더 좋다 !</title>
      <link>https://minyoungxi.tistory.com/119</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;논문 요약&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1600&quot; data-origin-height=&quot;1600&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/PvArN/btsHErJnIAW/ooQEL3dt2j5BQEmkHcyWd0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/PvArN/btsHErJnIAW/ooQEL3dt2j5BQEmkHcyWd0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/PvArN/btsHErJnIAW/ooQEL3dt2j5BQEmkHcyWd0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FPvArN%2FbtsHErJnIAW%2FooQEL3dt2j5BQEmkHcyWd0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;646&quot; height=&quot;646&quot; data-origin-width=&quot;1600&quot; data-origin-height=&quot;1600&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;FlashAttention 2&lt;/b&gt;는 FlashAttention의 후속 논문으로, GPU에서 더욱 효율적인 어텐션 연산을 수행하기 위한 최적화 기법들을 제안합니다.&amp;nbsp;&lt;br /&gt;기존의&amp;nbsp;Attention&amp;nbsp;연산과의&amp;nbsp;차이점을&amp;nbsp;비교해보며&amp;nbsp;&amp;nbsp;본&amp;nbsp;논문의&amp;nbsp;주요&amp;nbsp;Contribution을&amp;nbsp;위주로&amp;nbsp;한&amp;nbsp;번&amp;nbsp;살펴보겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;Contribution&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;1. 알고리즘 최적화를 통한 비-행렬곱 연산 감소&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;FlashAttention-2는&amp;nbsp;softmax&amp;nbsp;연산&amp;nbsp;등에서&amp;nbsp;불필요한&amp;nbsp;연산을&amp;nbsp;제거하고&amp;nbsp;행렬곱&amp;nbsp;위주의&amp;nbsp;연산을&amp;nbsp;수행하도록&amp;nbsp;알고리즘을&amp;nbsp;개선했습니다.&lt;br /&gt;-&amp;nbsp;GPU에서&amp;nbsp;행렬곱이&amp;nbsp;훨씬&amp;nbsp;빠르게&amp;nbsp;수행되므로&amp;nbsp;전체&amp;nbsp;연산&amp;nbsp;효율이&amp;nbsp;크게&amp;nbsp;향상되었습니다.&lt;br /&gt;-&amp;nbsp;반면&amp;nbsp;기존의&amp;nbsp;어텐션&amp;nbsp;구현에서는&amp;nbsp;비-행렬곱&amp;nbsp;연산이&amp;nbsp;상대적으로&amp;nbsp;많았습니다.&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;비행렬곱 연산(non-matrix multiplication operations)은 행렬의 곱셈 연산이 아닌 다른 모든 종류의 연산을 의미합니다. 머신러닝과 딥러닝에서 사용되는 신경망은 주로 행렬의 곱셈 연산으로 이루어져 있지만, 곱셈 이외에도 다양한 연산이 사용됩니다. 비행렬곱 연산의 예시로는 다음과 같은 것들이 있습니다. GPU에서 행렬곱 연산은 매우 최적화되어 있는 반면, 비행렬곱 연산은 상대적으로 최적화가 덜 되어 있습니다. 따라서 비행렬곱 연산을 최소화하고 행렬곱 연산을 최대화하는 것이 GPU 활용 효율을 높이는 데 도움이 됩니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;2. 시퀀스 길이에 대한 병렬화를 통한 GPU 활용도 증대&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;FlashAttention은&amp;nbsp;배치&amp;nbsp;크기와&amp;nbsp;헤드&amp;nbsp;수에&amp;nbsp;대해서만&amp;nbsp;병렬&amp;nbsp;처리를&amp;nbsp;했지만,&amp;nbsp;FlashAttention-2는&amp;nbsp;시퀀스&amp;nbsp;길이&amp;nbsp;차원으로도&amp;nbsp;병렬화를&amp;nbsp;확장했습니다.&lt;br /&gt;-&amp;nbsp;이를&amp;nbsp;통해&amp;nbsp;배치&amp;nbsp;크기나&amp;nbsp;헤드&amp;nbsp;수가&amp;nbsp;적은&amp;nbsp;경우에도&amp;nbsp;GPU를&amp;nbsp;충분히&amp;nbsp;활용할&amp;nbsp;수&amp;nbsp;있게&amp;nbsp;되었습니다.&lt;br /&gt;-&amp;nbsp;기존&amp;nbsp;구현들은&amp;nbsp;배치&amp;nbsp;크기나&amp;nbsp;헤드&amp;nbsp;수가&amp;nbsp;적으면&amp;nbsp;병렬성이&amp;nbsp;제한되는&amp;nbsp;한계가&amp;nbsp;있었습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;3. Warp 간 작업 분배 최적화로 shared memory 접근 감소&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;하나의&amp;nbsp;thread&amp;nbsp;block&amp;nbsp;내에서도&amp;nbsp;warp들이&amp;nbsp;어떻게&amp;nbsp;작업을&amp;nbsp;나누느냐에&amp;nbsp;따라&amp;nbsp;shared&amp;nbsp;memory&amp;nbsp;접근&amp;nbsp;패턴이&amp;nbsp;달라집니다.&lt;br /&gt;-&amp;nbsp;FlashAttention-2는&amp;nbsp;warp&amp;nbsp;간&amp;nbsp;통신과&amp;nbsp;shared&amp;nbsp;memory&amp;nbsp;읽기/쓰기를&amp;nbsp;최소화하는&amp;nbsp;방식으로&amp;nbsp;작업을&amp;nbsp;분배했습니다.&lt;br /&gt;-&amp;nbsp;기존&amp;nbsp;FlashAttention을&amp;nbsp;포함한&amp;nbsp;다른&amp;nbsp;구현들은&amp;nbsp;이&amp;nbsp;부분이&amp;nbsp;상대적으로&amp;nbsp;덜&amp;nbsp;최적화되어&amp;nbsp;있었습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;4. 정량적 성능 향상&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;위와&amp;nbsp;같은&amp;nbsp;최적화를&amp;nbsp;통해&amp;nbsp;FlashAttention-2는&amp;nbsp;FlashAttention&amp;nbsp;대비&amp;nbsp;최대&amp;nbsp;2배,&amp;nbsp;표준&amp;nbsp;어텐션&amp;nbsp;구현&amp;nbsp;대비&amp;nbsp;최대&amp;nbsp;10배의&amp;nbsp;속도&amp;nbsp;향상을&amp;nbsp;달성했습니다.&lt;br /&gt;-&amp;nbsp;A100&amp;nbsp;GPU&amp;nbsp;기준으로&amp;nbsp;최대&amp;nbsp;이론&amp;nbsp;성능&amp;nbsp;대비&amp;nbsp;73%까지&amp;nbsp;도달했는데,&amp;nbsp;이는&amp;nbsp;기존&amp;nbsp;구현들에&amp;nbsp;비해&amp;nbsp;매우&amp;nbsp;높은&amp;nbsp;수치입니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;5. 실제 모델 학습 속도 향상&lt;/b&gt;&lt;br /&gt;-&amp;nbsp;GPT&amp;nbsp;스타일&amp;nbsp;모델&amp;nbsp;학습에&amp;nbsp;FlashAttention-2를&amp;nbsp;적용한&amp;nbsp;결과,&amp;nbsp;FlashAttention&amp;nbsp;대비&amp;nbsp;최대&amp;nbsp;1.3배,&amp;nbsp;기존&amp;nbsp;방식&amp;nbsp;대비&amp;nbsp;2.8배의&amp;nbsp;학습&amp;nbsp;속도&amp;nbsp;향상을&amp;nbsp;얻었습니다.&lt;br /&gt;-&amp;nbsp;A100&amp;nbsp;GPU&amp;nbsp;1개로&amp;nbsp;최대&amp;nbsp;225&amp;nbsp;TFLOPs/s의&amp;nbsp;연산&amp;nbsp;속도를&amp;nbsp;보였는데,&amp;nbsp;이는&amp;nbsp;학습에&amp;nbsp;사용되는&amp;nbsp;전체&amp;nbsp;연산량의&amp;nbsp;72%가&amp;nbsp;실제로&amp;nbsp;GPU에서&amp;nbsp;처리되고&amp;nbsp;있음을&amp;nbsp;의미합니다.&lt;br /&gt;-&amp;nbsp;기존의&amp;nbsp;방법들로는&amp;nbsp;이처럼&amp;nbsp;높은&amp;nbsp;GPU&amp;nbsp;활용률을&amp;nbsp;달성하기&amp;nbsp;어려웠습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 data-ke-size=&quot;size26&quot;&gt;그림으로 그려보는 FlashAttention2&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;런타임에서&amp;nbsp;GPU는&amp;nbsp;세가지&amp;nbsp;메모리&amp;nbsp;접근법을&amp;nbsp;가지고&amp;nbsp;있습니다.&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;&lt;b&gt;SRAM:&lt;/b&gt;&amp;nbsp;실제&amp;nbsp;연산&amp;nbsp;코어와&amp;nbsp;함께&amp;nbsp;위치한&amp;nbsp;온칩&amp;nbsp;메모리입니다.&amp;nbsp;크기는&amp;nbsp;제한적이지만(A100&amp;nbsp;카드에서&amp;nbsp;약&amp;nbsp;20MB)&amp;nbsp;극도로&amp;nbsp;빠릅니다(총&amp;nbsp;19TB/s&amp;nbsp;대역폭).&lt;br /&gt;-&amp;nbsp;&lt;b&gt;HBM:&amp;nbsp;&lt;/b&gt;오프칩이지만&amp;nbsp;카드&amp;nbsp;내부에&amp;nbsp;있는&amp;nbsp;메모리로,&amp;nbsp;GPU&amp;nbsp;내부에&amp;nbsp;있지만&amp;nbsp;코어와&amp;nbsp;함께&amp;nbsp;위치하지는&amp;nbsp;않습니다.&amp;nbsp;A100은&amp;nbsp;40GB의&amp;nbsp;HBM을&amp;nbsp;가지고&amp;nbsp;있지만,&amp;nbsp;1.5TB/s의&amp;nbsp;대역폭만&amp;nbsp;가집니다.&lt;br /&gt;-&amp;nbsp;&lt;b&gt;DRAM:&lt;/b&gt;&amp;nbsp;전통적인&amp;nbsp;CPU&amp;nbsp;RAM입니다.&amp;nbsp;TB&amp;nbsp;단위로&amp;nbsp;가질&amp;nbsp;수&amp;nbsp;있지만,&amp;nbsp;약&amp;nbsp;12.8GB/s&amp;nbsp;대역폭만&amp;nbsp;얻을&amp;nbsp;수&amp;nbsp;있어&amp;nbsp;너무&amp;nbsp;느립니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1925&quot; data-origin-height=&quot;634&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cx2aE0/btsHFpqmPg1/1xkkQAhhlaG0wlksGfA5tk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cx2aE0/btsHFpqmPg1/1xkkQAhhlaG0wlksGfA5tk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cx2aE0/btsHFpqmPg1/1xkkQAhhlaG0wlksGfA5tk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcx2aE0%2FbtsHFpqmPg1%2F1xkkQAhhlaG0wlksGfA5tk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1925&quot; height=&quot;634&quot; data-origin-width=&quot;1925&quot; data-origin-height=&quot;634&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;GPU에서 가장 작은 처리 단위를 &quot;스레드(Thread)&quot;라고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;스레드는 덧셈, 뺄셈, 곱셈, 나눗셈과 같은 간단한 산술 연산을 수행하기에 적합합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적인 GPU 카드에는 수천 개의 CUDA 코어가 있으며, 각 코어는 여러 개의 스레드를 실행할 수 있습니다. 예를 들어, NVIDIA H100은 16,896개의 CUDA 코어를 가지고 있습니다. 스레드는 스레드 블록으로 그룹화되며, 각 블록은 동일한 연산을 실행합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어, 일반적인 NVIDIA GPU 카드는 스레드 블록당 최대 1,024개의 스레드를 가질 수 있습니다. &lt;b&gt;각 스레드 블록은 빠른 공유 메모리(SRAM)에 접근할 수 있습니다. 이 메모리는 작지만 빠릅니다! &lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대부분의 고성능 GPU는 10MB에서 40MB 사이의 공유 메모리를 가지고 있습니다. 모든 스레드 블록은 또한 큰 전역 메모리를 공유할 수 있습니다. 최신 GPU 대부분은 더 빠른 High Bandwidth Memory(HBM)에 접근할 수 있습니다. HBM은 SRAM보다 1,000배 이상 클 수 있습니다. HBM의 데이터 접근 속도는 빠르지만 SRAM보다는 느립니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1960&quot; data-origin-height=&quot;825&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/0umGi/btsHET6nBeu/psxuOP7DSMISbv917TYL11/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/0umGi/btsHET6nBeu/psxuOP7DSMISbv917TYL11/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/0umGi/btsHET6nBeu/psxuOP7DSMISbv917TYL11/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F0umGi%2FbtsHET6nBeu%2FpsxuOP7DSMISbv917TYL11%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1960&quot; height=&quot;825&quot; data-origin-width=&quot;1960&quot; data-origin-height=&quot;825&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터가 메모리에서 이동하는 방식을 이해하는 것은 더 나은 알고리즘을 작성하는 데 매우 중요합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어, 어텐션 레이어에서는 쿼리와 키 사이의 텐서 곱을 계산해야 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$ S = QK^T $ 이 연산은 스레드 블록에 분산되고, 결과 변수 S는 전역 메모리(또는 사용 가능한 경우 HBM)에 기록됩니다. 이 작업이 완료되면, S 행렬을 다시 스레드로 가져와서 softmax 변환을 계산해야 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$Attention = Softmax(S)$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그리고 다시, 결과 행렬을 전역 메모리로 이동시켜야 합니다.&amp;nbsp;행렬은 스레드와 전역 메모리 사이에서 앞뒤로 이동합니다. 왜냐하면 연산을 스레드 블록에 격리시키고 SRAM을 사용하여 중간 행렬을 캐시할 수 있는 논리적인 방법이 없기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;요즘 일반적으로 사용되는 한 가지 전략은 S 행렬의 연산을 더 작은 행렬로 분할하여 각 작은 연산을 스레드 블록에 격리시키는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래는 일반적으로 HBM에서 Attention을 연산하는 프로세스와 FlashAttention 기법을 사용하여 Attention을 계산하는 프로세스를 비교합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1805&quot; data-origin-height=&quot;1389&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/3fMoj/btsHECYcuYH/q1N7TSQ0mC439jNCaUTOOK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/3fMoj/btsHECYcuYH/q1N7TSQ0mC439jNCaUTOOK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/3fMoj/btsHECYcuYH/q1N7TSQ0mC439jNCaUTOOK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F3fMoj%2FbtsHECYcuYH%2Fq1N7TSQ0mC439jNCaUTOOK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1805&quot; height=&quot;1389&quot; data-origin-width=&quot;1805&quot; data-origin-height=&quot;1389&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <category>AI</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/119</guid>
      <comments>https://minyoungxi.tistory.com/119#entry119comment</comments>
      <pubDate>Tue, 28 May 2024 22:38:16 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - ⭐️Mamba: Linear-Time Sequence Modeling with Selective State Spaces⭐️ - 맘바 ! Transformer의 대체자 ?</title>
      <link>https://minyoungxi.tistory.com/118</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bdVj3q/btsHDMLpKO2/bxzttFk5Wt3XqgoCmUX8jK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bdVj3q/btsHDMLpKO2/bxzttFk5Wt3XqgoCmUX8jK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bdVj3q/btsHDMLpKO2/bxzttFk5Wt3XqgoCmUX8jK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbdVj3q%2FbtsHDMLpKO2%2FbxzttFk5Wt3XqgoCmUX8jK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;800&quot; height=&quot;400&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;&amp;nbsp;&lt;/h2&gt;
&lt;h2 id=&quot;section-0&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;1. Interesting Point&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #f6e199;&quot;&gt;&quot;We&amp;nbsp;identify&amp;nbsp;that&amp;nbsp;a&amp;nbsp;key&amp;nbsp;weakness&amp;nbsp;of&amp;nbsp;such&amp;nbsp;models&amp;nbsp;is&amp;nbsp;their&amp;nbsp;inability&amp;nbsp;to&amp;nbsp;perform&amp;nbsp;content-based&amp;nbsp;reasoning,&amp;nbsp;and&amp;nbsp;make&amp;nbsp;several&amp;nbsp;improvements.&amp;nbsp;First,&amp;nbsp;simply&amp;nbsp;letting&amp;nbsp;the&amp;nbsp;SSM&amp;nbsp;parameters&amp;nbsp;be&amp;nbsp;functions&amp;nbsp;of&amp;nbsp;the&amp;nbsp;input&amp;nbsp;addresses&amp;nbsp;their&amp;nbsp;weakness&amp;nbsp;with&amp;nbsp;discrete&amp;nbsp;modalities,&amp;nbsp;allowing&amp;nbsp;the&amp;nbsp;model&amp;nbsp;to&amp;nbsp;selectively&amp;nbsp;propagate&amp;nbsp;or&amp;nbsp;forget&amp;nbsp;information&amp;nbsp;along&amp;nbsp;the&amp;nbsp;sequence&amp;nbsp;length&amp;nbsp;dimension&amp;nbsp;depending&amp;nbsp;on&amp;nbsp;the&amp;nbsp;current&amp;nbsp;token.&amp;rdquo;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자들은&amp;nbsp;기존의&amp;nbsp;SSM&amp;nbsp;모델들의&amp;nbsp;주요한&amp;nbsp;약점&amp;nbsp;이&amp;nbsp;내용&amp;nbsp;기반&amp;nbsp;추론(content_based&amp;nbsp;reasoing)을&amp;nbsp;수행하지&amp;nbsp;못한다는&amp;nbsp;것을&amp;nbsp;발견하고&amp;nbsp;몇&amp;nbsp;가지&amp;nbsp;개선점을&amp;nbsp;제시합니다.&amp;nbsp;우선,&amp;nbsp;SSM&amp;nbsp;parameters를&amp;nbsp;단순히&amp;nbsp;입력의&amp;nbsp;함수로&amp;nbsp;만들어&amp;nbsp;이산화하여&amp;nbsp;약점을&amp;nbsp;해결하고,&amp;nbsp;현재&amp;nbsp;토큰에&amp;nbsp;의존하여&amp;nbsp;시퀀스&amp;nbsp;길이&amp;nbsp;차원을&amp;nbsp;따라&amp;nbsp;정보를&amp;nbsp;선택적으로&amp;nbsp;전파하거나&amp;nbsp;잊을&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #f6e199;&quot;&gt;We integrate these selective SSMs into a simplified end-to-end neural network architecture without attention or even MLP blocks (Mamba). Mamba enjoys fast inference (5&amp;times; higher throughput than Transformers) and linear scaling in sequence length, and its performance improves on real data up to million-length sequences.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한&amp;nbsp;선택적&amp;nbsp;SSM을&amp;nbsp;어텐션이나&amp;nbsp;심지어&amp;nbsp;MLP&amp;nbsp;블록조차&amp;nbsp;없는&amp;nbsp;단순화된&amp;nbsp;end-to-end&amp;nbsp;신경망&amp;nbsp;아키텍쳐(Mamba)에&amp;nbsp;통합합니다.&amp;nbsp;Mamba는&amp;nbsp;빠른&amp;nbsp;추론(Transformer&amp;nbsp;보다&amp;nbsp;5배&amp;nbsp;높은&amp;nbsp;처리량)과&amp;nbsp;시퀀스&amp;nbsp;길이에&amp;nbsp;대한&amp;nbsp;선형&amp;nbsp;스케일링을&amp;nbsp;제공하며&amp;nbsp;실제&amp;nbsp;데이터에서&amp;nbsp;최대&amp;nbsp;백만&amp;nbsp;길이&amp;nbsp;시퀀스까지&amp;nbsp;성능이&amp;nbsp;향상됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffff00; color: #000000; text-align: start;&quot;&gt;However, this property brings fundamental drawbacks: an inability to model anything outside of a finite window, and quadratic scaling with respect to the window length. An enormous body of research has appeared on more efficient variants of attention to overcome these drawbacks (Tay, Dehghani, Bahri, et al. 2022), but often at the expense of the very properties that makes it effective.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;self-attention은 유한한 윈도우 밖의 것들은 모델링할 수 없고 윈도우 길이에 대해 제곱으로 스케일링 됩니다. 이러한 단점을 극복하기 위해 어텐션의 더 효율적인 변형들에 대한 연구가 많이 진행되었습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffff00; color: #000000; text-align: start;&quot;&gt;However, they have been less effective at modeling discrete and information-dense data such as text.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;구조화된&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;시퀀스&amp;nbsp;모델(SSMs)이&amp;nbsp;시퀀스&amp;nbsp;모델링을&amp;nbsp;위한&amp;nbsp;유망한&amp;nbsp;아키텍처&amp;nbsp;클래스로&amp;nbsp;부상했고,&amp;nbsp;이&amp;nbsp;모델들은&amp;nbsp;RNN과&amp;nbsp;CNN의&amp;nbsp;조합으로&amp;nbsp;해석될&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;그러나&amp;nbsp;텍스트와&amp;nbsp;같은&amp;nbsp;이산적이고&amp;nbsp;정보&amp;nbsp;밀도가&amp;nbsp;높은&amp;nbsp;데이터를&amp;nbsp;모델링하는&amp;nbsp;데는&amp;nbsp;덜&amp;nbsp;효과적입니다.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;Mamba Motivation Summary&lt;/span&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;우선 트랜스포머의 모델부터 텍스트 생성 모델까지 간단하게 살펴보겠습니다. Transformer 모델의 주요 장점은 입력값이 무엇이든, 시퀀스의 이전 토큰을 참고할 수 있어서 그 표현을 도출할 수 있다는 점이죠 ? &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;모델의 구성을 보면 텍스트를 받아서 Encoder에 들어가고 그 후에 Decoder 블록을 통과하게 되어있습니다. 이 구조를 사용하여 GPT 모델처럼 디코더만을 사용하는 생성 모델을 만들 수 있습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;686&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cxoVAi/btsHDjW4Z8Q/Hu63GaiJFTuDTP5PvjugG1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cxoVAi/btsHDjW4Z8Q/Hu63GaiJFTuDTP5PvjugG1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cxoVAi/btsHDjW4Z8Q/Hu63GaiJFTuDTP5PvjugG1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcxoVAi%2FbtsHDjW4Z8Q%2FHu63GaiJFTuDTP5PvjugG1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;565&quot; height=&quot;303&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;686&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;383&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/M7KRs/btsHDdCAaQ0/R1Sjd5bA5Ku7wMkyytWkX0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/M7KRs/btsHDdCAaQ0/R1Sjd5bA5Ku7wMkyytWkX0/img.png&quot; data-alt=&quot;출처 : https://tulip-phalange-a1e.notion.site/05f977226a0e44c6b35ed9bfe0076839&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/M7KRs/btsHDdCAaQ0/R1Sjd5bA5Ku7wMkyytWkX0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FM7KRs%2FbtsHDdCAaQ0%2FR1Sjd5bA5Ku7wMkyytWkX0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;642&quot; height=&quot;192&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;383&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 : https://tulip-phalange-a1e.notion.site/05f977226a0e44c6b35ed9bfe0076839&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리가 잘 알고있는 트랜스포머 기반 모델인&lt;b&gt; GPT(Genrative Pre-Trained Transformer, GPT)&lt;/b&gt;는 디코더 블록을 사용하여 어떤 입력 텍스트를 완성하게 되는 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;729&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bdj4Fl/btsHBPC9ty1/tJy2C57uisholfxvCMyLF1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bdj4Fl/btsHBPC9ty1/tJy2C57uisholfxvCMyLF1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bdj4Fl/btsHBPC9ty1/tJy2C57uisholfxvCMyLF1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbdj4Fl%2FbtsHBPC9ty1%2FtJy2C57uisholfxvCMyLF1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;562&quot; height=&quot;320&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;729&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하나의 Decoder 블록에는 masked self-attention과 피드포워드 신경망으로 구성되어 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;self-attention은 이 모델들이 작동하는 주요 이유 중 하나라고 배웠습니다. 전체 시퀀스에 대한 압축되지 않은 관점을 제공하여 훈련 속도를 빠르게 해주죠. 각 토큰은 이전의 토큰과 비교하여 행렬을 생성하게 됩니다. 행렬의 각 가중치는 토큰 쌍이 서로 얼마나 관련이 있는지에 의해 결정됩니다. 이는 병렬 처리를 가능하게 하여 훈련 속도를 크게 높일 수 있는 것이죠.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;334&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/3v6X1/btsHCCphm07/hV6fj0pK2W2mkQSNwP4uok/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/3v6X1/btsHCCphm07/hV6fj0pK2W2mkQSNwP4uok/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/3v6X1/btsHCCphm07/hV6fj0pK2W2mkQSNwP4uok/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F3v6X1%2FbtsHCCphm07%2FhV6fj0pK2W2mkQSNwP4uok%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;664&quot; height=&quot;173&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;334&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 다음 토큰을 생성할 때, 이미 일부 토큰을 생성했더라도 전체 시퀀스에 대한 Attention을 다시 계산해야하죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;길이가 L인 시퀀스에 대한 토큰을 생성하는 데는 대략 L 제곱만큼의 계산이 필요하며, 시퀀스의 길이가 증가하면 비용이 증가합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;307&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bLkOfV/btsHBqXYaDm/bRZ5W5y7u1Swl6YGs1iVDk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bLkOfV/btsHBqXYaDm/bRZ5W5y7u1Swl6YGs1iVDk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bLkOfV/btsHBqXYaDm/bRZ5W5y7u1Swl6YGs1iVDk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbLkOfV%2FbtsHBqXYaDm%2FbRZ5W5y7u1Swl6YGs1iVDk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;307&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;307&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style3&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;상태 공간 모델 ( State Space Models, SSM )&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;상태 공간 모델(State Space Models, SSM)은 트랜스포머와 RNN과 마찬가지로 정보의 시퀀스를 처리합니다.&amp;nbsp;&lt;br /&gt;본 논문에서 제시하는 Mamba 모델의 뼈대를 이루고 있는 아키텍처라고 볼 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM은 흔히 제어이론에서 사용되고 있는 상태 공간 방정식과 동일합니다. 이는 연속형 변수를 가정해서 사용하는 방정식인데, 딥러닝의 경우 변수가 전부 이산형 변수이기 때문에 이산화 과정을 거쳐야 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;197&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nx1gd/btsHCRGy4Ah/fktJEQ1V43OejnX8uF5KJK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nx1gd/btsHCRGy4Ah/fktJEQ1V43OejnX8uF5KJK/img.png&quot; data-alt=&quot;상태공간모델 수식&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nx1gd/btsHCRGy4Ah/fktJEQ1V43OejnX8uF5KJK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fnx1gd%2FbtsHCRGy4Ah%2FfktJEQ1V43OejnX8uF5KJK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;197&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;197&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;상태공간모델 수식&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이산화 방식은 다양하지만 Mamba의 경우 ZOH 방식을 채택합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Discrete time state space model 의 수식을 보면 t가 커질수록 B와 C는 고정된 상태에서 A만 계속해서 곱해지는 경향이 발생합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇기에 이를 커널로 정의하여 컨볼루션 형식으로 작성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1568&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/XcpbS/btsHCpjv2B6/gNpda0ySKKjZ3leV3IOFJk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/XcpbS/btsHCpjv2B6/gNpda0ySKKjZ3leV3IOFJk/img.jpg&quot; data-alt=&quot;이산화 과정&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/XcpbS/btsHCpjv2B6/gNpda0ySKKjZ3leV3IOFJk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FXcpbS%2FbtsHCpjv2B6%2FgNpda0ySKKjZ3leV3IOFJk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2732&quot; height=&quot;1568&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1568&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;이산화 과정&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;409&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ky09R/btsHDFZSq4z/KhXkDIPU1ZO3Yb6kKAxaDK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ky09R/btsHDFZSq4z/KhXkDIPU1ZO3Yb6kKAxaDK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ky09R/btsHDFZSq4z/KhXkDIPU1ZO3Yb6kKAxaDK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fky09R%2FbtsHDFZSq4z%2FKhXkDIPU1ZO3Yb6kKAxaDK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;409&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;409&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;상태 공간 방정식을 쭉 풀어서 전개해보면 Training 단계에서는 그렇게 좋지 않습니다. 왜냐하면 Training시 이미 입력과 출력의 모든 토큰을 가지고 있기 때문에, 병렬화해야 합니다. SSM 모델은 합성곱(Convolutional) 모드도 제공하므로 이를 통해 학습 단계에서의 계산을 효율적으로 병렬화가 가능합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;892&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cqdExp/btsHCB4XyVh/doxecrITKbKKpPnCfPdpX0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cqdExp/btsHCB4XyVh/doxecrITKbKKpPnCfPdpX0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cqdExp/btsHCB4XyVh/doxecrITKbKKpPnCfPdpX0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcqdExp%2FbtsHCB4XyVh%2FdoxecrITKbKKpPnCfPdpX0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2732&quot; height=&quot;892&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;892&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;컨볼루션 표현을 위한 수식 전개입니다. CNN이 동작하는 방식은 고정된 길이의 Kernel을 이동하여 이미지의 특징을 추출하죠 ?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번에는 이미지가 아닌 텍스트를 다루고 있기 때문에 1차원 관점이 필요합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1575&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/tt2tG/btsHBnG1BnC/U8czyxWR07tyYbQLCKgghk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/tt2tG/btsHBnG1BnC/U8czyxWR07tyYbQLCKgghk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/tt2tG/btsHBnG1BnC/U8czyxWR07tyYbQLCKgghk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Ftt2tG%2FbtsHBnG1BnC%2FU8czyxWR07tyYbQLCKgghk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2732&quot; height=&quot;1575&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1575&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기서 kernel 즉, 필터를 나타내기 위해 사용하는 커널은 SSM 공식에서 도출할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의 그림에서 kernel ( 핑크색 )이 각 토큰 세트를 통과하고 출력을 계산할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;516&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dyZMHe/btsHBBSuDro/L86z7G2hJgOK0CY6P6UfvK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dyZMHe/btsHBBSuDro/L86z7G2hJgOK0CY6P6UfvK/img.png&quot; data-alt=&quot;1차원적인 CNN 접근법&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dyZMHe/btsHBBSuDro/L86z7G2hJgOK0CY6P6UfvK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdyZMHe%2FbtsHBBSuDro%2FL86z7G2hJgOK0CY6P6UfvK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;736&quot; height=&quot;297&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;516&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;1차원적인 CNN 접근법&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1382&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bMbc0n/btsHCQ1XB1R/OVH8pQPV2DZ1O7WgxGpEmK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bMbc0n/btsHCQ1XB1R/OVH8pQPV2DZ1O7WgxGpEmK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bMbc0n/btsHCQ1XB1R/OVH8pQPV2DZ1O7WgxGpEmK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbMbc0n%2FbtsHCQ1XB1R%2FOVH8pQPV2DZ1O7WgxGpEmK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2732&quot; height=&quot;1382&quot; data-origin-width=&quot;2732&quot; data-origin-height=&quot;1382&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;행렬 A&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;행렬 $\bar{A}$의 중요한 이유는 크게 세 가지가 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;424&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/CEOn1/btsHCy8eoL4/5kywinl68IqzTb8NcxCU71/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/CEOn1/btsHCy8eoL4/5kywinl68IqzTb8NcxCU71/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/CEOn1/btsHCy8eoL4/5kywinl68IqzTb8NcxCU71/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FCEOn1%2FbtsHCy8eoL4%2F5kywinl68IqzTb8NcxCU71%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;573&quot; height=&quot;190&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;424&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선 이전 상태의 정보를 포착할 수 있습니다. 행렬 A는 이전 상태의 정보를 새로운 상태로 전달합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 행렬 A는 정보가 시간이 지남에 따라 어떻게 전달되는지 결정합니다. 이는 모델이 시간에 따른 입력 정보의 변화를 적절히 반영할 수 있도록 합니다.&amp;nbsp; 그리고 언어 모델에서 다음 토큰은 이전 토큰(프롬프트)에 의존합니다. 행렬 A가 이전 입력의 기록을 잘 포착해야 모델이 적절한 다음 출력을 생성할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;행렬 A를 생성하는 것은 따라서 몇 개의 이전 토큰만 기억하는 것과 지금까지 본 모든 토큰을 포착하는 것 사이의 차이를 만들 수 있습니다. 특히 재귀적 표현의 맥락에서는 이전 상태만을 고려하기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇다면 우리는 어떻게 큰 메모리(맥락 크기)를 유지하는 방식으로 행렬 A를 생성할 수 있을까요?&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우리는 &lt;b&gt;헝그리 헝그리 히포(Hungry Hungry Hippo)&lt;/b&gt; 또는&amp;nbsp;&lt;a href=&quot;https://proceedings.neurips.cc/paper/2020/hash/102f0bb6efb3a6128a3c750dd16729be-Abstract.html&quot;&gt;HiPPO&lt;/a&gt;(&lt;b&gt;Hi&lt;/b&gt;gh-order &lt;b&gt;P&lt;/b&gt;olynomial &lt;b&gt;P&lt;/b&gt;rojection &lt;b&gt;O&lt;/b&gt;perators)&lt;a href=&quot;https://www.notion.so/05f977226a0e44c6b35ed9bfe0076839?pvs=21&quot;&gt;$^3$&lt;/a&gt;를 사용합니다. HiPPO는 지금까지 본 모든 입력 신호를 계수의 벡터로 압축하려고 시도합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;418&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/mhWpq/btsHCokAWZe/UDcP6bkZLeOoIiaY1kEWK1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/mhWpq/btsHCokAWZe/UDcP6bkZLeOoIiaY1kEWK1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/mhWpq/btsHCokAWZe/UDcP6bkZLeOoIiaY1kEWK1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FmhWpq%2FbtsHCokAWZe%2FUDcP6bkZLeOoIiaY1kEWK1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;418&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;418&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는&lt;span data-token-index=&quot;1&quot;&gt; 행렬 A&lt;/span&gt;를 사용하여 최근 토큰을 잘 포착하고 오래된 토큰을 감소시키는 상태 표현을 구축합니다. 그 공식은 다음과 같이 표현될 수 있습니다:&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;318&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/uZaOy/btsHDgF1YVO/ZxrUdJl34yX1zWopyS9Ifk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/uZaOy/btsHDgF1YVO/ZxrUdJl34yX1zWopyS9Ifk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/uZaOy/btsHDgF1YVO/ZxrUdJl34yX1zWopyS9Ifk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FuZaOy%2FbtsHDgF1YVO%2FZxrUdJl34yX1zWopyS9Ifk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;675&quot; height=&quot;168&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;318&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;정사각형 행렬 A를 가정하면, 우리는 다음을 얻습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Hippo Matrix로 행렬을 초기화하면 A행렬은 지금까지 본 모든 입력 신호를 계수 벡터로 근사하는 방식으로 구축합니다.(Legendre)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;생성된 하삼각행렬의 각 행은 Legendre 다항식 차수에 해당합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Hippo Matrix로 초기화된 행렬 A는 입력 값의 시간적 특성을 효과적으로 포착하고 SSM의 성능을 향상시킵니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;631&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/b8jlQZ/btsHBgnI9CT/bJ7XK4G4G3WVrK8CfrrZc1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/b8jlQZ/btsHBgnI9CT/bJ7XK4G4G3WVrK8CfrrZc1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/b8jlQZ/btsHBgnI9CT/bJ7XK4G4G3WVrK8CfrrZc1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fb8jlQZ%2FbtsHBgnI9CT%2FbJ7XK4G4G3WVrK8CfrrZc1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;432&quot; height=&quot;213&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;631&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Hippo Theory&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2253&quot; data-origin-height=&quot;1085&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bcKuVd/btsHCz0pilb/ckQUGzr3HnrBboBhwaCsNK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bcKuVd/btsHCz0pilb/ckQUGzr3HnrBboBhwaCsNK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bcKuVd/btsHCz0pilb/ckQUGzr3HnrBboBhwaCsNK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbcKuVd%2FbtsHCz0pilb%2FckQUGzr3HnrBboBhwaCsNK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2253&quot; height=&quot;1085&quot; data-origin-width=&quot;2253&quot; data-origin-height=&quot;1085&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;HiPPO를 사용하여 행렬 A를 구축하는 것은 무작위 행렬로 초기화하는 것보다 훨씬 나은 것으로 나타났습니다. 결과적으로, 이는 오래된 신호(초기 토큰)보다 새로운 신호(최근 토큰)를 더 정확하게 재구성합니다. HiPPO 매트릭스의 아이디어는 그것이 그 역사를 기억하는 숨겨진 상태를 생성한다는 것입니다. 수학적으로, 이는 &lt;a href=&quot;https://proceedings.neurips.cc/paper/2019/hash/952285b9b7e7a1be5aa7849f32ffff05-Abstract.html&quot;&gt;르장드르 다항식의 계수(Legendre polynomial)&lt;/a&gt;를 추적함으로써 이전 역사의 모든 것을 근사화할 수 있게 함으로써 그렇게 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;HiPPO는 장거리 의존성을 처리하기 위해 앞서 본 재귀적 및 컨볼루셔널 표현에 적용되었습니다. 결과는 시퀀스를 효율적으로 처리할 수 있는 SSM 클래스인 &lt;a href=&quot;https://arxiv.org/abs/2111.00396&quot;&gt;Structured State Space for Sequences (S4)&lt;/a&gt;였습니다.&lt;a href=&quot;https://www.notion.so/05f977226a0e44c6b35ed9bfe0076839?pvs=21&quot;&gt;$^5$&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 세 부분으로 구성됩니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;상태 공간 모델&lt;/li&gt;
&lt;li&gt;&lt;b&gt;장거리 의존성&lt;/b&gt;을 처리하기 위한 HiPPO&lt;/li&gt;
&lt;li&gt;&lt;b&gt;재귀적&lt;/b&gt; 및 &lt;b&gt;컨볼루셔널&lt;/b&gt; 표현을 생성하기 위한 이산화&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;570&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dWJI66/btsHB98WFyS/Y6d6nOjfSIf1qZKwH8e5xK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dWJI66/btsHB98WFyS/Y6d6nOjfSIf1qZKwH8e5xK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dWJI66/btsHB98WFyS/Y6d6nOjfSIf1qZKwH8e5xK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdWJI66%2FbtsHB98WFyS%2FY6d6nOjfSIf1qZKwH8e5xK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;584&quot; height=&quot;260&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;570&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 SSM 클래스는 선택한 표현(재귀적 대 컨볼루셔널)에 따라 여러 가지 이점을 가지고 있으며, 텍스트의 긴 시퀀스를 처리하고 HiPPO 매트릭스를 기반으로 메모리를 효율적으로 저장할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style2&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;상태 공간 모델, 심지어 S4(Structured State Space Model)조차도 언어 모델링 및 생성에서 중요한 특정 작업에서는 성능이 떨어집니다. 즉, 특정 입력에 집중하거나 무시하는 능력입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 &lt;b&gt;선택적 복사(Selective Copying)&lt;/b&gt; 및 &lt;b&gt;유도 헤드(induction heads)&lt;/b&gt;라는 두 가지 합성 작업으로 설명할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;선택적 복사&lt;/b&gt; 작업에서, SSM의 목표는 입력의 일부를 복사하여 순서대로 출력하는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왼쪽의 예시는 입력을 한 번에 한 토큰씩 다시 쓰되, 시간 이동(Time-shift)을 적용합니다. 이는 바닐라 SSM으로 수행할 수 있으며, 시간 지연은 컨볼루션 연산을 통해 학습할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 선택적 복사의 경우, 예를 들어 트위터의 댓글이 주어졌을 때, 모든 나쁜 단어(흰색 토큰)를 제거하여 댓글을 다시 작성합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 바닐라 SSM으로는 수행할 수 없는데, 이는&lt;b&gt; 내용 인식 추론(content-aware reasoning)&lt;/b&gt;을 필요로 하기 때문입니다. 바닐라 SSM은 &lt;b&gt;시간 불변(Time invariant)&lt;/b&gt;하기 때문에 내용 인식 추론을 할 수 없습니다. 시간 불변이란 생성하는 모든 토큰에 대해 &lt;b&gt;매개변수 A,B,C가 동일하다는 것&lt;/b&gt;을 의미합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Mamba - Linear-Time Sequence Modeling with Selective State Spaces-6-x69-y525.png&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;804&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cGaov2/btsHBsIgfNU/4GBAupvJLpIaWdmb5YpgMK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cGaov2/btsHBsIgfNU/4GBAupvJLpIaWdmb5YpgMK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cGaov2/btsHBsIgfNU/4GBAupvJLpIaWdmb5YpgMK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcGaov2%2FbtsHBsIgfNU%2F4GBAupvJLpIaWdmb5YpgMK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2008&quot; height=&quot;804&quot; data-filename=&quot;Mamba - Linear-Time Sequence Modeling with Selective State Spaces-6-x69-y525.png&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;804&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM이 성능이 떨어지는 두 번째 작업은 &lt;b&gt;&lt;span data-token-index=&quot;1&quot;&gt;유도 헤드(induction heads)&lt;/span&gt;&lt;/b&gt;로, 입력에서 발견된 패턴을 재현하는 것이 목표입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 예시에서 우리는 기본적으로 한 번의 프롬프팅을 수행하고 있습니다. 여기에서 우리는 모델에게 &quot;&lt;b&gt;Q:&lt;/b&gt;&quot; 후에 &quot;&lt;b&gt;A:&lt;/b&gt;&quot; 응답을 제공하도록 &quot;가르치려고&quot; 시도합니다. 그러나 SSM이 시간 불변성을 가지고 있기 때문에, 이전 토큰 중 어떤 것을 기억할지 선택할 수 없습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;448&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bvAyXo/btsHCpqhcCC/M8ciMzJQsuG080o7R9pO61/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bvAyXo/btsHCpqhcCC/M8ciMzJQsuG080o7R9pO61/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bvAyXo/btsHCpqhcCC/M8ciMzJQsuG080o7R9pO61/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbvAyXo%2FbtsHCpqhcCC%2FM8ciMzJQsuG080o7R9pO61%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;691&quot; height=&quot;242&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;448&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 행렬 B에 집중하여 설명해 봅시다. 입력 &lt;span data-token-index=&quot;1&quot;&gt;x&lt;/span&gt;가 무엇이든 관계없이 행렬 B는 정확히 동일하게 유지되므로 &lt;span data-token-index=&quot;3&quot;&gt;x&lt;/span&gt;와 독립적입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;마찬가지로, A와 C도 입력에 관계없이 고정되어 있습니다. 이는 지금까지 본 SSM의 &lt;span data-token-index=&quot;1&quot;&gt;정적&lt;/span&gt;인 특성을 보여줍니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;698&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/easwh7/btsHBWozIGb/IvDkSHmNhqpwmK9E43Uku0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/easwh7/btsHBWozIGb/IvDkSHmNhqpwmK9E43Uku0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/easwh7/btsHBWozIGb/IvDkSHmNhqpwmK9E43Uku0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Feaswh7%2FbtsHBWozIGb%2FIvDkSHmNhqpwmK9E43Uku0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;656&quot; height=&quot;358&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;698&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;비교적으로, 이러한 작업들은 트랜스포머에게는 상대적으로 쉽습니다. 트랜스포머는 입력 시퀀스에 따라 동적으로 어텐션을 변경할 수 있습니다. 그들은 시퀀스의 다른 부분을 선택적으로 &quot;보거나&quot; &quot;주의를 기울일&quot; 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM이 이러한 작업에서 성능이 떨어지는 것은 시간 불변성 SSM의 근본적인 문제, 즉 A, B, C 행렬의 정적인 특성으로 인한 내용 인식 문제를 시사합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style3&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2022&quot; data-origin-height=&quot;404&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/BS9tr/btsHBnGciUJ/hyybtxQMdeBXBZlvK1Mn11/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/BS9tr/btsHBnGciUJ/hyybtxQMdeBXBZlvK1Mn11/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/BS9tr/btsHBnGciUJ/hyybtxQMdeBXBZlvK1Mn11/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FBS9tr%2FbtsHBnGciUJ%2FhyybtxQMdeBXBZlvK1Mn11%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2022&quot; height=&quot;404&quot; data-origin-width=&quot;2022&quot; data-origin-height=&quot;404&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000; text-align: start;&quot;&gt;여러&amp;nbsp;작업(synthetic&amp;nbsp;tasks)에서의&amp;nbsp;직관을&amp;nbsp;사용하여&amp;nbsp;선택&amp;nbsp;메커니즘에&amp;nbsp;대한&amp;nbsp;동기를&amp;nbsp;얻습니다.&amp;nbsp;그&amp;nbsp;후에&amp;nbsp;이&amp;nbsp;메커니즘을&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;모델(State&amp;nbsp;Space&amp;nbsp;Models)에&amp;nbsp;어떻게&amp;nbsp;통합하는지&amp;nbsp;설명합니다.&amp;nbsp;&lt;b&gt;선택&amp;nbsp;메커니즘을&amp;nbsp;통합한&amp;nbsp;SSM은&amp;nbsp;시간에&amp;nbsp;따라&amp;nbsp;변하는(time-varying)&lt;/b&gt;한&amp;nbsp;특성을&amp;nbsp;가지게&amp;nbsp;되므로,&amp;nbsp;기존의&amp;nbsp;컨볼루션&amp;nbsp;연산을&amp;nbsp;직접&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;없습니다.&amp;nbsp;또한&amp;nbsp;저자들은&amp;nbsp;모던&amp;nbsp;하드웨어의&amp;nbsp;메모리&amp;nbsp;계층&amp;nbsp;구조를&amp;nbsp;고려한&amp;nbsp;알고리즘을&amp;nbsp;통해&amp;nbsp;문제해결을&amp;nbsp;논의합니다.&amp;nbsp;이후에&amp;nbsp;등장하는&amp;nbsp;간소화된&amp;nbsp;SSM&amp;nbsp;아키텍처는&amp;nbsp;Attention과&amp;nbsp;MLP&amp;nbsp;블록을&amp;nbsp;포함하지&amp;nbsp;않습니다.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;272&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dg8Dlk/btsHAJQsLJ0/GSeOB1NPo8K152hUfZS3dk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dg8Dlk/btsHAJQsLJ0/GSeOB1NPo8K152hUfZS3dk/img.png&quot; data-alt=&quot;출처 : Mamba 논문&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dg8Dlk/btsHAJQsLJ0/GSeOB1NPo8K152hUfZS3dk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fdg8Dlk%2FbtsHAJQsLJ0%2FGSeOB1NPo8K152hUfZS3dk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2008&quot; height=&quot;272&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;272&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 : Mamba 논문&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Mamba&amp;nbsp;Contribution1.&lt;/b&gt;&amp;nbsp;input-dependent(입력&amp;nbsp;종속)방식으로&amp;nbsp;데이터를&amp;nbsp;효율적으로&amp;nbsp;선택하지&amp;nbsp;못하므로&amp;nbsp;선택&amp;nbsp;메커니즘에&amp;nbsp;대해&amp;nbsp;주요한&amp;nbsp;기여를&amp;nbsp;통해&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;모델&amp;nbsp;접근&amp;nbsp;방식&amp;nbsp;제안(simple&amp;nbsp;selection&amp;nbsp;mechanism).&amp;nbsp;parameters&amp;nbsp;들을&amp;nbsp;매개&amp;nbsp;변수화&amp;nbsp;합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;SSM의 재귀적인 표현은 전체적인 기록을 압축하는 효율적인 작은 상태를 생성합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러나 어텐션 행렬을 통해 기록들을 전혀 압축하지 않은 Transformer와 비교해본다면 덜 강력한 상태이죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Mamba는 Transformer만큼의 성능을 내면서 작은 크기를 유지하고자 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이는 앞서 언급한 SSM처럼 데이터를 선택적으로 압축함으로써 이뤄낼 수 있습니다. 입력 문장을 가지고 있을 때, 종종 중요한 의미를 가지지 않는 정보 ( Stop words ) 가 있죠? 정보를 선택적으로 압축하려면 입력에 따라 매개변수가 달라져야 합니다. 이를 위해, 훈련 중 SSM의 입력과 출력의 차원을 먼저 알아야합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;385&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/YPo6M/btsHB4Ugnzy/LjJHA0VTjr2eOXk8hX61kk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/YPo6M/btsHB4Ugnzy/LjJHA0VTjr2eOXk8hX61kk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/YPo6M/btsHB4Ugnzy/LjJHA0VTjr2eOXk8hX61kk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYPo6M%2FbtsHB4Ugnzy%2FLjJHA0VTjr2eOXk8hX61kk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;667&quot; height=&quot;201&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;385&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1972&quot; data-origin-height=&quot;622&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/qHMAf/btsHBdRjmaf/YUElwAOmDlzm7KwVtCgKq0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/qHMAf/btsHBdRjmaf/YUElwAOmDlzm7KwVtCgKq0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/qHMAf/btsHBdRjmaf/YUElwAOmDlzm7KwVtCgKq0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FqHMAf%2FbtsHBdRjmaf%2FYUElwAOmDlzm7KwVtCgKq0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1972&quot; height=&quot;622&quot; data-origin-width=&quot;1972&quot; data-origin-height=&quot;622&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Structured State Space Model (S4)에서, 행렬 A, B, C는 입력과 독립적입니다. 그들의 차원 &lt;span data-token-index=&quot;1&quot;&gt;N&lt;/span&gt;과 &lt;span data-token-index=&quot;3&quot;&gt;D&lt;/span&gt;는 정적이며 변하지 않습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imagegridblock&quot;&gt;
  &lt;div class=&quot;image-container&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c36plJ/btsHDKmwnoT/q0LepJMIGHwLwcYYbAWl7k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c36plJ/btsHDKmwnoT/q0LepJMIGHwLwcYYbAWl7k/img.png&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;446&quot; data-is-animation=&quot;false&quot; style=&quot;width: 51.2845%; margin-right: 10px;&quot; data-widthpercent=&quot;51.89&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c36plJ/btsHDKmwnoT/q0LepJMIGHwLwcYYbAWl7k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc36plJ%2FbtsHDKmwnoT%2Fq0LepJMIGHwLwcYYbAWl7k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;446&quot;/&gt;&lt;/span&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/d9hQr6/btsHB7wH32m/PKuPQOztg3BfeQMAcudJR1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/d9hQr6/btsHB7wH32m/PKuPQOztg3BfeQMAcudJR1/img.png&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;481&quot; data-is-animation=&quot;false&quot; style=&quot;width: 47.5527%;&quot; data-widthpercent=&quot;48.11&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/d9hQr6/btsHB7wH32m/PKuPQOztg3BfeQMAcudJR1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fd9hQr6%2FbtsHB7wH32m%2FPKuPQOztg3BfeQMAcudJR1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;481&quot;/&gt;&lt;/span&gt;&lt;/div&gt;
  &lt;figcaption&gt;오른쪽 : S4&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대신, 맘바는 &lt;b&gt;행렬 &lt;span data-token-index=&quot;1&quot;&gt;B&lt;/span&gt;와&lt;span data-token-index=&quot;3&quot;&gt; C&lt;/span&gt;, 심지어 &lt;span data-token-index=&quot;5&quot;&gt;스텝 크기 ∆&lt;/span&gt;를 입력에 의존&lt;/b&gt;하도록 하여 입력의 시퀀스 길이와 배치 크기를 포함합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것은 이제 모든 입력 토큰에 대해 서로 다른 B와 C 행렬을 가지고 있다는 것을 의미합니다. 이렇게 만들면 내용 인식 문제를 해결할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;540&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ccnPuz/btsHCnMOGV0/FFzzOKQz9LCvP33Dt6ZuJk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ccnPuz/btsHCnMOGV0/FFzzOKQz9LCvP33Dt6ZuJk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ccnPuz/btsHCnMOGV0/FFzzOKQz9LCvP33Dt6ZuJk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FccnPuz%2FbtsHCnMOGV0%2FFFzzOKQz9LCvP33Dt6ZuJk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;659&quot; height=&quot;278&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;540&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;행렬 A는 동일하게 유지됩니다. 왜냐하면 우리는 상태 자체가 정적으로 유지되기를 원하지만, 이것이 영향을 받는 방식(B,C를 통해)은 동적으로 유지되기를 원하기 때문입니다. 그리고 입력값에 의존하여 숨겨진 상태에서 어떤 요소를 유지하고 무시할지 선택적으로 고를 수 있습니다. 작은 Step size는 특정 단어를 무시하고 대신 이전 맥락을 더 사용하는 데 초점을 맞추게 됩니다. 큰 Step size는 맥락보다 입력 단어에 더욱 집중하도록 학습됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;312&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/x0xoK/btsHCcdBSd2/TXkb6yVcZOUUsxEk31WAl0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/x0xoK/btsHCcdBSd2/TXkb6yVcZOUUsxEk31WAl0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/x0xoK/btsHCcdBSd2/TXkb6yVcZOUUsxEk31WAl0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fx0xoK%2FbtsHCcdBSd2%2FTXkb6yVcZOUUsxEk31WAl0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;312&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;312&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2006&quot; data-origin-height=&quot;362&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bY8uYt/btsHAzmXyNL/DGkxCbTSwNWHGspkKLw5V0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bY8uYt/btsHAzmXyNL/DGkxCbTSwNWHGspkKLw5V0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bY8uYt/btsHAzmXyNL/DGkxCbTSwNWHGspkKLw5V0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbY8uYt%2FbtsHAzmXyNL%2FDGkxCbTSwNWHGspkKLw5V0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2006&quot; height=&quot;362&quot; data-origin-width=&quot;2006&quot; data-origin-height=&quot;362&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Mamba Contribution2.&lt;/b&gt; Convolution 대신 scan을 사용하여 모델을 반복적으로 계산하는 하드웨어 인식 알고리즘 제안합니다. a100 gpu 기준 최대 3배 더 빠릅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;앞서 언급했듯이 우리의 행렬이 동적이기 때문에, 고정된 kernel을 가정하는 컨볼루션을 더이상 사용할 수 없습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;컨볼루션의 병렬화를 잃고 재귀적인 표현만을 사용할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 상태는 이전 상태(행렬 A에 의해 곱해진)와 현재 입력(행렬 B에 의해 곱해진)의 합입니다. 이것을 &lt;span data-token-index=&quot;1&quot;&gt;스캔 작업&lt;/span&gt;이라고 하며, for 루프를 사용하여 쉽게 계산할 수 있습니다. 병렬화와는 대조적으로, 이전 상태를 가지고 있어야만 각 상태를 계산할 수 있으므로 불가능해 보입니다. 그러나 맘바는 &lt;a href=&quot;https://developer.nvidia.com/gpugems/gpugems3/part-vi-gpu-computing/chapter-39-parallel-prefix-sum-scan-cuda&quot;&gt;병렬 스캔&lt;/a&gt; 알고리즘을 통해 이것을 가능하게 합니다. 이것은 연산 순서가 중요하지 않다고 가정함으로써 수행됩니다. 결과적으로, 우리는 시퀀스를 부분적으로 계산하고 반복적으로 결합할 수 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;858&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/YCSTu/btsHB6YTAib/ocRgXKrq4prz3DOEaSIty1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/YCSTu/btsHB6YTAib/ocRgXKrq4prz3DOEaSIty1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/YCSTu/btsHB6YTAib/ocRgXKrq4prz3DOEaSIty1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYCSTu%2FbtsHB6YTAib%2FocRgXKrq4prz3DOEaSIty1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;629&quot; height=&quot;422&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;858&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;함께, 동적인 행렬 B와 C, 그리고 병렬 스캔 알고리즘은 재귀적 표현을 사용하는 동적이고 빠른 특성을 나타내는 &lt;b&gt;&lt;span data-token-index=&quot;1&quot;&gt;선택적 스캔 알고리즘&lt;/span&gt;&lt;/b&gt;을 생성합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하드웨어 인식 알고리즘&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근 GPU의 단점 중 하나는 작지만 매우 효율적인 SRAM과 크지만 약간 덜 효율적인 DRAM 사이의 전송(IO) 속도가 제한되어 있다는 것입니다. SRAM과 DRAM 사이에 정보를 자주 복사하는 것은 병목 현상이 됩니다. 딥러닝 프레임워크에서 텐서 연산 수행 시 , GPU의 HBM과 SRAM 간의 데이터 복사가 반복적으로 발생합니다. 데이터 복사 작업이 전체 수행 시간의 상당 부분을 차지하죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여러 개의 CUDA 커널을 하나의 커스텀 CUDA 커널로 융합하여 중간 결과를 HBM에 복사하지 않고 연산을 수행합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최종 결과만 HBM에 저장함으로써 연산 속도를 향상시킬 수 있죠.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2472&quot; data-origin-height=&quot;1070&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dIiJhq/btsHBVpFkpK/hjPLQ7z4zMIXHPiuTKcjm1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dIiJhq/btsHBVpFkpK/hjPLQ7z4zMIXHPiuTKcjm1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dIiJhq/btsHBVpFkpK/hjPLQ7z4zMIXHPiuTKcjm1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdIiJhq%2FbtsHBVpFkpK%2FhjPLQ7z4zMIXHPiuTKcjm1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2472&quot; height=&quot;1070&quot; data-origin-width=&quot;2472&quot; data-origin-height=&quot;1070&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하드웨어 인식 알고리즘의 마지막 부분은 &lt;b&gt;재계산&amp;nbsp;&lt;/b&gt;입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;중간 상태들은 저장되지 않지만, 그래디언트를 계산하기 위해 역방향 패스에서 필요합니다. 대신, 저자들은 역방향 패스 동안 이러한 중간 상태들을 재계산합니다. 이것이 비효율적으로 보일 수 있지만, 상대적으로 느린 DRAM에서 모든 중간 상태를 읽는 것보다 훨씬 비용을 절약할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;394&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Vzr8C/btsHCV93LZs/y1fAkdH1LBm8jkCIMlkT8k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Vzr8C/btsHCV93LZs/y1fAkdH1LBm8jkCIMlkT8k/img.png&quot; data-alt=&quot;선택적 SSM. 출처: Gu, Albert, and Tri Dao. &amp;quot;Mamba: Linear-time sequence modeling with selective state spaces.&amp;quot; arXiv preprint arXiv:2312.00752 (2023).&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Vzr8C/btsHCV93LZs/y1fAkdH1LBm8jkCIMlkT8k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FVzr8C%2FbtsHCV93LZs%2Fy1fAkdH1LBm8jkCIMlkT8k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;394&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;394&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;선택적 SSM. 출처: Gu, Albert, and Tri Dao. &quot;Mamba: Linear-time sequence modeling with selective state spaces.&quot; arXiv preprint arXiv:2312.00752 (2023).&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;518&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Hcs0w/btsHAnmMJQM/KObuuismz9wJsU45j1Qo1k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Hcs0w/btsHAnmMJQM/KObuuismz9wJsU45j1Qo1k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Hcs0w/btsHAnmMJQM/KObuuismz9wJsU45j1Qo1k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FHcs0w%2FbtsHAnmMJQM%2FKObuuismz9wJsU45j1Qo1k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2008&quot; height=&quot;518&quot; data-origin-width=&quot;2008&quot; data-origin-height=&quot;518&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Mamba&amp;nbsp;Contribution3.&amp;nbsp;&lt;/b&gt;SSMs&amp;nbsp;아키텍처를&amp;nbsp;결합하여&amp;nbsp;이전&amp;nbsp;deep&amp;nbsp;sequence&amp;nbsp;model의&amp;nbsp;아키텍처를&amp;nbsp;단순화하는&amp;nbsp;것입니다.&amp;nbsp;Transformer의&amp;nbsp;MLP&amp;nbsp;블록을&amp;nbsp;단일&amp;nbsp;블록으로&amp;nbsp;통합하여&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;모델을&amp;nbsp;기반으로&amp;nbsp;선택적&amp;nbsp;상태&amp;nbsp;공간을&amp;nbsp;통합하는&amp;nbsp;Mamba라는&amp;nbsp;간단한&amp;nbsp;SSMs&amp;nbsp;모델을&amp;nbsp;만들&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Mamba Block은 Selective SSM이 디코더 블록에서 self-attention을 나타내는 것과 같은 방식으로 블록으로 구현될 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;디코더와 마찬가지로, 우리는 여러 맘바 블록을 쌓을 수 있으며, 그 출력을 다음 맘바 블록의 입력으로 사용할 수 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;729&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/NdmiU/btsHBttHvk1/vsARZPtLj8Kpl4okV9FggK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/NdmiU/btsHBttHvk1/vsARZPtLj8Kpl4okV9FggK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/NdmiU/btsHBttHvk1/vsARZPtLj8Kpl4okV9FggK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FNdmiU%2FbtsHBttHvk1%2FvsARZPtLj8Kpl4okV9FggK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;549&quot; height=&quot;313&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;729&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;선택적 SSM을 적용하기 전에 독립적인 토큰 계산을 방지하기 위한 컨볼루션이 사용됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;선택적 SSM은 다음과 같은 특성을 가집니다:&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;이산화를 통해 생성된 재귀적 SSM&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;장거리 의존성을 포착하기 위한 HiPPO 초기화가 있는 행렬 A&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;정보를 선택적으로 압축하기 위한 선택적 스캔 알고리즘&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;계산 속도를 높이기 위한 하드웨어 인식 알고리즘&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;1573&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/lG4DF/btsHB9gR0lT/pKz1MLfBYN27yDxjgurxB0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/lG4DF/btsHB9gR0lT/pKz1MLfBYN27yDxjgurxB0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/lG4DF/btsHB9gR0lT/pKz1MLfBYN27yDxjgurxB0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FlG4DF%2FbtsHB9gR0lT%2FpKz1MLfBYN27yDxjgurxB0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;609&quot; height=&quot;748&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;1573&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 id=&quot;section-1&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;2. Related Work&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Simplified State Space Layers for Sequence Modeling -&amp;nbsp;&lt;/b&gt; 시퀀스 모델링을 위해 간소화된 상태 공간 레이어를 제안함 , 기존의 구조화된 상태 공간 모델을 단순화하여 효율성과 성능을 향상시킴&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Long Range Arena: A Benchmark for Efficient Transformers -&amp;nbsp; : &lt;/b&gt;효율적인 Transformer 모델을 평가하기 위한 벤치마크 제안 , 장거리 의존성이 필요한 다양한 작업들로 구성되어 있음&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Legendre Memory Units: Continuous-Time Representation in Recurrent Neural Networks -&amp;nbsp; &lt;/b&gt;연속 시간 표현을 사용하는 Legendre Memory Unit (LMU)이라는 순환 신경망 모델 제안 , 연속 시간 표현을 통해 장기 의존성을 더 잘 포착할 수 있음&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;HiPPO: Recurrent Memory with Optimal Polynomial Projections -&amp;nbsp;&lt;/b&gt;최적의 다항식 투영을 사용하는 HiPPO (High-order Polynomial Projection Operator) 메모리 메커니즘 제안&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Efficiently Modeling Long Sequences with Structured State Spaces - &lt;/b&gt;구조화된 상태 공간을 사용하여 긴 시퀀스를 효율적으로 모델링하는 방법 제안 , 상태 공간 모델을 활용하여 계산 복잡도를 줄이고 병렬화 가능성을 높임&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers - &lt;/b&gt;선형 상태 공간 레이어를 사용하여 순환, 합성곱, 연속 시간 모델을 결합하는 방법 제안 , 다양한 모델의 장점을 활용하여 시퀀스 모델링 성능을 향상시킴&lt;/p&gt;
&lt;h2 id=&quot;section-5&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;3. 실험 및 결과&lt;/h2&gt;
&lt;h3 id=&quot;section-8&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Results&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1986&quot; data-origin-height=&quot;1482&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dKTDhv/btsHAusvxAk/nGbDZxpPgoDvEtXcgRn591/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dKTDhv/btsHAusvxAk/nGbDZxpPgoDvEtXcgRn591/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dKTDhv/btsHAusvxAk/nGbDZxpPgoDvEtXcgRn591/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdKTDhv%2FbtsHAusvxAk%2FnGbDZxpPgoDvEtXcgRn591%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;667&quot; height=&quot;498&quot; data-origin-width=&quot;1986&quot; data-origin-height=&quot;1482&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2042&quot; data-origin-height=&quot;706&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bAvgYR/btsHAt8ek2k/HVLFrkkK8q4MaALOXU1180/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bAvgYR/btsHAt8ek2k/HVLFrkkK8q4MaALOXU1180/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bAvgYR/btsHAt8ek2k/HVLFrkkK8q4MaALOXU1180/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbAvgYR%2FbtsHAt8ek2k%2FHVLFrkkK8q4MaALOXU1180%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2042&quot; height=&quot;706&quot; data-origin-width=&quot;2042&quot; data-origin-height=&quot;706&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2062&quot; data-origin-height=&quot;606&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ST6w9/btsHAQPC7wS/OsvsXH69hfOIXbvrF6GzAK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ST6w9/btsHAQPC7wS/OsvsXH69hfOIXbvrF6GzAK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ST6w9/btsHAQPC7wS/OsvsXH69hfOIXbvrF6GzAK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FST6w9%2FbtsHAQPC7wS%2FOsvsXH69hfOIXbvrF6GzAK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2062&quot; height=&quot;606&quot; data-origin-width=&quot;2062&quot; data-origin-height=&quot;606&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;section-9&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Conclusion&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;어렵다.. 맘바..&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <category>AI</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/118</guid>
      <comments>https://minyoungxi.tistory.com/118#entry118comment</comments>
      <pubDate>Sun, 26 May 2024 11:50:48 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - xLSTM: Extended Long Short-Term Memory - LSTM을 트랜스포머처럼 만들어보자고 ?</title>
      <link>https://minyoungxi.tistory.com/117</link>
      <description>&lt;h2 id=&quot;section-0&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;1. Introduction&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이전 Transformer 논문 리뷰 : &lt;a href=&quot;https://minyoungxi.tistory.com/104&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://minyoungxi.tistory.com/104&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1715865268681&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;article&quot; data-og-title=&quot;[논문리뷰] Attention is all you need - 트랜스포머를 모르면 취업을 못해요&quot; data-og-description=&quot;Transformer의 탄생 배경 자연어 처리 분야에서 순환신경망(RNN)은 오랫동안 메인 모델로 사용되어 왔습니다. 하지만 RNN은 길이가 길어질수록 성능이 저하되는 단점이 있었습니다. 그래서 어텐션(Att&quot; data-og-host=&quot;minyoungxi.tistory.com&quot; data-og-source-url=&quot;https://minyoungxi.tistory.com/104&quot; data-og-url=&quot;https://minyoungxi.tistory.com/104&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/fufrp/hyV6j2YobB/Np8pKsNN7lKD2zJyP5CTg1/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803,https://scrap.kakaocdn.net/dn/zYRKo/hyV6fzu6hm/B55DmFCkOW84Kr4TZpyYl0/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803&quot;&gt;&lt;a href=&quot;https://minyoungxi.tistory.com/104&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://minyoungxi.tistory.com/104&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/fufrp/hyV6j2YobB/Np8pKsNN7lKD2zJyP5CTg1/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803,https://scrap.kakaocdn.net/dn/zYRKo/hyV6fzu6hm/B55DmFCkOW84Kr4TZpyYl0/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;[논문리뷰] Attention is all you need - 트랜스포머를 모르면 취업을 못해요&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;Transformer의 탄생 배경 자연어 처리 분야에서 순환신경망(RNN)은 오랫동안 메인 모델로 사용되어 왔습니다. 하지만 RNN은 길이가 길어질수록 성능이 저하되는 단점이 있었습니다. 그래서 어텐션(Att&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;minyoungxi.tistory.com&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원문 : &lt;a href=&quot;https://arxiv.org/abs/2405.04517&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://arxiv.org/abs/2405.04517&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1715865275445&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;xLSTM: Extended Long Short-Term Memory&quot; data-og-description=&quot;In the 1990s, the constant error carousel and gating were introduced as the central ideas of the Long Short-Term Memory (LSTM). Since then, LSTMs have stood the test of time and contributed to numerous deep learning success stories, in particular they cons&quot; data-og-host=&quot;arxiv.org&quot; data-og-source-url=&quot;https://arxiv.org/abs/2405.04517&quot; data-og-url=&quot;https://arxiv.org/abs/2405.04517v1&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/TfYeS/hyV6gZrTOW/yIV6lZqF3BKKk9bYbHYXRk/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bbdB6R/hyV6gZrTQz/LsNzosqEyoyCuQKD4Fs2Q1/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2405.04517&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://arxiv.org/abs/2405.04517&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/TfYeS/hyV6gZrTOW/yIV6lZqF3BKKk9bYbHYXRk/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bbdB6R/hyV6gZrTQz/LsNzosqEyoyCuQKD4Fs2Q1/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;xLSTM: Extended Long Short-Term Memory&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;In the 1990s, the constant error carousel and gating were introduced as the central ideas of the Long Short-Term Memory (LSTM). Since then, LSTMs have stood the test of time and contributed to numerous deep learning success stories, in particular they cons&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;arxiv.org&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;xLSTM_wordcloud.jpg&quot; data-origin-width=&quot;2000&quot; data-origin-height=&quot;1000&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/eh0ZcA/btsHrQIkJLq/2zA3agLLtdBFrCwKpzT4LK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/eh0ZcA/btsHrQIkJLq/2zA3agLLtdBFrCwKpzT4LK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/eh0ZcA/btsHrQIkJLq/2zA3agLLtdBFrCwKpzT4LK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Feh0ZcA%2FbtsHrQIkJLq%2F2zA3agLLtdBFrCwKpzT4LK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2000&quot; height=&quot;1000&quot; data-filename=&quot;xLSTM_wordcloud.jpg&quot; data-origin-width=&quot;2000&quot; data-origin-height=&quot;1000&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot;&gt;논문이 다루는 task&lt;/span&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LSTM(Long Short-Term Memory) 모델을 확장하여 대규모 언어 모델링 작업에서의 성능을 향상시키는 것을 목표로 합니다. 이 논문은 LSTM을 수십억 개의 파라미터로 확장하고, 최신 기술을 적용하여 기존 LSTM의 한계를 극복하는 방법을 탐구합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;해당 task에서 기존 연구 한계점&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;768&quot; data-origin-height=&quot;466&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/brj2HG/btsHqLVkVZc/XapZzcv2dj0iRzR7RhO4Fk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/brj2HG/btsHqLVkVZc/XapZzcv2dj0iRzR7RhO4Fk/img.png&quot; data-alt=&quot;LSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/brj2HG/btsHqLVkVZc/XapZzcv2dj0iRzR7RhO4Fk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbrj2HG%2FbtsHqLVkVZc%2FXapZzcv2dj0iRzR7RhO4Fk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;416&quot; height=&quot;252&quot; data-origin-width=&quot;768&quot; data-origin-height=&quot;466&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;LSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;1. 저장 결정 수정 불가능 :&lt;/b&gt; LSTM은&amp;nbsp;저장된&amp;nbsp;값을&amp;nbsp;더&amp;nbsp;유사한&amp;nbsp;벡터가&amp;nbsp;발견될&amp;nbsp;때&amp;nbsp;수정하는&amp;nbsp;능력이&amp;nbsp;부족합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를&amp;nbsp;들어,&amp;nbsp;가장&amp;nbsp;유사한&amp;nbsp;벡터를&amp;nbsp;찾아야&amp;nbsp;하는&amp;nbsp;최근접&amp;nbsp;이웃&amp;nbsp;검색&amp;nbsp;문제에서&amp;nbsp;LSTM은&amp;nbsp;이미&amp;nbsp;저장된&amp;nbsp;값을&amp;nbsp;수정하기&amp;nbsp;어려워합니다.&lt;br /&gt;해결책:&amp;nbsp;xLSTM은&amp;nbsp;&lt;b&gt;지수&amp;nbsp;게이팅(exponential&amp;nbsp;gating)을&amp;nbsp;도입하여&lt;/b&gt;&amp;nbsp;이&amp;nbsp;문제를&amp;nbsp;해결합니다.&lt;b&gt;&lt;br /&gt;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;2. 제한된 저장 용량 :&lt;/b&gt;&lt;span style=&quot;color: #333333; text-align: start;&quot;&gt;&lt;span&gt; &amp;nbsp;&lt;/span&gt;&lt;/span&gt;LSTM은&amp;nbsp;정보를&amp;nbsp;스칼라&amp;nbsp;셀&amp;nbsp;상태로&amp;nbsp;압축하여&amp;nbsp;저장하기&amp;nbsp;때문에,&amp;nbsp;드문&amp;nbsp;토큰을&amp;nbsp;예측하는&amp;nbsp;데&amp;nbsp;있어&amp;nbsp;성능이&amp;nbsp;저하됩니다.&lt;br /&gt;해결책:&amp;nbsp;xLSTM은&amp;nbsp;&lt;b&gt;매트릭스&amp;nbsp;메모리(matrix&amp;nbsp;memory)&lt;/b&gt;를&amp;nbsp;도입하여&amp;nbsp;저장&amp;nbsp;용량을&amp;nbsp;확장합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;3.&lt;/b&gt; &lt;b&gt;병렬 처리의 부족 : &lt;/b&gt;LSTM은&amp;nbsp;&lt;b&gt;메모리&amp;nbsp;혼합(memory&amp;nbsp;mixing)&lt;/b&gt;으로&amp;nbsp;인해&amp;nbsp;시퀀스&amp;nbsp;처리에서&amp;nbsp;병렬화를&amp;nbsp;어렵게&amp;nbsp;합니다.&amp;nbsp;이는&amp;nbsp;연산을&amp;nbsp;순차적으로&amp;nbsp;처리해야&amp;nbsp;함을&amp;nbsp;의미합니다.&lt;br /&gt;해결책:&amp;nbsp;mLSTM은&amp;nbsp;메모리&amp;nbsp;혼합을&amp;nbsp;제거하고&amp;nbsp;&lt;b&gt;완전&amp;nbsp;병렬화가&amp;nbsp;가능한&amp;nbsp;구조&lt;/b&gt;로&amp;nbsp;설계되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;477&quot; data-origin-height=&quot;484&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cjM6dY/btsHqKhQyvY/NyxJzL4mKA6TzF7R4NT0Jk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cjM6dY/btsHqKhQyvY/NyxJzL4mKA6TzF7R4NT0Jk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cjM6dY/btsHqKhQyvY/NyxJzL4mKA6TzF7R4NT0Jk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcjM6dY%2FbtsHqKhQyvY%2FNyxJzL4mKA6TzF7R4NT0Jk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;477&quot; height=&quot;484&quot; data-origin-width=&quot;477&quot; data-origin-height=&quot;484&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 id=&quot;section-1&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;2. Related Work&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Linear&amp;nbsp;Attention&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;Synthesizer:&lt;/b&gt; 학습된 attention 가중치를 사용하여 토큰 간의 상호작용 없이 작동합니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Linformer&lt;/b&gt;: 저차원 행렬을 사용하여 self-attention을 실현하고 선형적으로 근사합니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Linear Transformer&lt;/b&gt;: attention 메커니즘을 선형화합니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Performer&lt;/b&gt;: 긍정적 직교 무작위 특징 접근법을 통해 주의 소프트맥스를 선형적으로 근사합니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;SGConv&amp;nbsp;및&amp;nbsp;Hyena&amp;nbsp;Hierarchy&lt;/b&gt;: 구조화된 글로벌 컨볼루션과 긴 컨볼루션을 사용하여 attention을 대체합니다 .&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;State&amp;nbsp;Space&amp;nbsp;Models&amp;nbsp;(SSMs)&lt;/b&gt;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;Structured State Space (S4)&lt;/b&gt;: 처음 제안된 모델로, 컨텍스트 길이에 대해 선형적이며 Transformer와 비교하여 유망한 성능을 보입니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Diagonal State Space (DSS)&lt;/b&gt;: 구조화된 상태 공간을 대각선으로 단순화한 모델입니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Gated State Space (GSS)&lt;/b&gt;: 게이트를 추가하여 상태 공간 모델의 성능을 개선합니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Bidirectional Gated SSM (BiGS)&lt;/b&gt;: 양방향 게이트를 사용하여 성능을 향상시킵니다 .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;H3 및 Mamba:&lt;/b&gt; 상태 공간 모델의 최근 발전을 반영하는 모델입니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&quot;section-2&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;3. 제안 방법론&lt;/h2&gt;
&lt;h3 id=&quot;section-3&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Main Idea&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존&amp;nbsp;LSTM(Long&amp;nbsp;Short-Term&amp;nbsp;Memory)&amp;nbsp;모델을&amp;nbsp;확장하여&amp;nbsp;새로운&amp;nbsp;지수&amp;nbsp;게이팅과&amp;nbsp;메모리&amp;nbsp;구조를&amp;nbsp;도입함으로써,&amp;nbsp;대규모&amp;nbsp;언어&amp;nbsp;모델링&amp;nbsp;작업에서의&amp;nbsp;성능을&amp;nbsp;향상시키는&amp;nbsp;것입니다.&amp;nbsp;LSTM의&amp;nbsp;한계를&amp;nbsp;극복하고&amp;nbsp;최신&amp;nbsp;기술을&amp;nbsp;적용하여&amp;nbsp;더&amp;nbsp;큰&amp;nbsp;모델을&amp;nbsp;구축하고,&amp;nbsp;이를&amp;nbsp;통해&amp;nbsp;LSTM이&amp;nbsp;트랜스포머(Transformers)&amp;nbsp;및&amp;nbsp;상태&amp;nbsp;공간&amp;nbsp;모델(State&amp;nbsp;Space&amp;nbsp;Models)과&amp;nbsp;경쟁할&amp;nbsp;수&amp;nbsp;있도록&amp;nbsp;합니다.&lt;/p&gt;
&lt;h3 id=&quot;section-4&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Contribution&lt;/h3&gt;
&lt;h4 style=&quot;color: #000000; text-align: start;&quot; data-ke-size=&quot;size20&quot;&gt;지수 게이팅 ( Exponential Gating )&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1100&quot; data-origin-height=&quot;570&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cCqCzh/btsHrVbDFZl/jcilvsy8ho6cJti4nXpuik/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cCqCzh/btsHrVbDFZl/jcilvsy8ho6cJti4nXpuik/img.png&quot; data-alt=&quot;xLSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cCqCzh/btsHrVbDFZl/jcilvsy8ho6cJti4nXpuik/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcCqCzh%2FbtsHrVbDFZl%2Fjcilvsy8ho6cJti4nXpuik%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;704&quot; height=&quot;365&quot; data-origin-width=&quot;1100&quot; data-origin-height=&quot;570&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;xLSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;지수 게이팅(Exponential Gating)은 xLSTM에서 기존 LSTM의 Gating Machanism을 확장한 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;gate라는 것은 아래의 그림에 나와있는 것처럼 하나의 셀(cell)에 존재합니다.&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Input gate, Forget gate, Output gate&lt;/b&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;이렇게 세 가지가 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;간단하게 설명하자면 이 gate들의 역할은 모델이 정보를 언제 저장하고 언제 삭제하며 언제 출력할지를 결정하는 데 사용됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;552&quot; data-origin-height=&quot;285&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/PSUQr/btsHrwiZMer/kpn0IBJ8kxUo4sE0VUiiB1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/PSUQr/btsHrwiZMer/kpn0IBJ8kxUo4sE0VUiiB1/img.png&quot; data-alt=&quot;LSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/PSUQr/btsHrwiZMer/kpn0IBJ8kxUo4sE0VUiiB1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FPSUQr%2FbtsHrwiZMer%2Fkpn0IBJ8kxUo4sE0VUiiB1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;552&quot; height=&quot;285&quot; data-origin-width=&quot;552&quot; data-origin-height=&quot;285&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;LSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;기존 LSTM 모델의 gating 메커니즘은 이 게이트들이 시그모이드 함수를 사용하여 활성화 됩니다. 시그모이드 함수는 게이트의 출력값을 0~1 사이로 제한하여 정보의 흐름을 부드럽게 조절하는 역할을 합니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;지수 게이팅(exponential gating)&lt;/b&gt;에서는 input gate 와 forget gate에 지수 함수(exponential function)을 사용합니다. 지수 함수는 게이트의 출력값을 더 넓은 범위로 확장하여 정보의 흐름을 더 강하게 또는 약하게 조절할 수 있도록 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;이런 구조를 가지게 되면 모델이 저장된 정보를 더 유사한 정보로 대체할 수 있는 능력을 크게 향상시킵니다. 예를 들어, 새로운 입력이 기존에 저장된 정보보다 더 유사할 때, 모델이 이 정보를 쉽게 수정할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;기존 LSTM 구조의 가장 큰 문제는 t-1에서 t로 넘어갈 때 t-1 의 정보를 모두 가져가는게 아니라 latent space 라는 하나의 벡터로 전달이 되죠? 이는 제한된 정보만을 넘겨주게 되므로 모델이 제대로 된 정보를 볼 수 없을지도 모릅니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;지수 게이팅의 효과로는 정보 수정 능력이 향상된다는 것입니다. 또한 유연하게 정보를 조절할 수 있게 되죠. 게이트의 출력값 범위가 넓어지면서 모델이 조금 더 유연하게 정보를 조절할 수 있게 됩니다. 이는 모델이 다양한 상황에서 정보를 적절하게 처리하는 데 도움이 됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;476&quot; data-origin-height=&quot;452&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Sq9mk/btsHsTxkbbf/4Fag5LODdXpayIPdIpP5sk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Sq9mk/btsHsTxkbbf/4Fag5LODdXpayIPdIpP5sk/img.png&quot; data-alt=&quot;왼쪽 sLSTM , 오른쪽 mLSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Sq9mk/btsHsTxkbbf/4Fag5LODdXpayIPdIpP5sk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FSq9mk%2FbtsHsTxkbbf%2F4Fag5LODdXpayIPdIpP5sk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;476&quot; height=&quot;452&quot; data-origin-width=&quot;476&quot; data-origin-height=&quot;452&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;왼쪽 sLSTM , 오른쪽 mLSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;새로운 메모리 구조 (New Memory Structures):&lt;/b&gt; 두 가지 새로운 LSTM 변형을 제안합니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;sLSTM :&amp;nbsp;&lt;/b&gt;스칼라 메모리와 스칼라 업데이트를 사용하며 새로운 메모리 혼합 기법(Memory Mixing)을 도입했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;mLSTM :&amp;nbsp;&lt;/b&gt;메트릭스 메모리를 사용하며 공분산 업데이트 규칙을 도입합니다. 이렇게 함으로써 완전 병렬 처리가 가능해집니다.&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;641&quot; data-origin-height=&quot;835&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bAH4c4/btsHsTxkbzA/8VzOl1OPlTArOb7oKFC7v0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bAH4c4/btsHsTxkbzA/8VzOl1OPlTArOb7oKFC7v0/img.png&quot; data-alt=&quot;sLSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bAH4c4/btsHsTxkbzA/8VzOl1OPlTArOb7oKFC7v0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbAH4c4%2FbtsHsTxkbzA%2F8VzOl1OPlTArOb7oKFC7v0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;394&quot; height=&quot;513&quot; data-origin-width=&quot;641&quot; data-origin-height=&quot;835&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;sLSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;616&quot; data-origin-height=&quot;735&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/YDFzY/btsHsQm3pu2/8TkQBv98ACC2KvqyeeuFR1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/YDFzY/btsHsQm3pu2/8TkQBv98ACC2KvqyeeuFR1/img.png&quot; data-alt=&quot;mLSTM&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/YDFzY/btsHsQm3pu2/8TkQBv98ACC2KvqyeeuFR1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FYDFzY%2FbtsHsQm3pu2%2F8TkQBv98ACC2KvqyeeuFR1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;380&quot; height=&quot;453&quot; data-origin-width=&quot;616&quot; data-origin-height=&quot;735&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;mLSTM&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;color: #333333; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;xLSTM 블록 :&lt;/b&gt; sLSTM과 mLSTM을 잔차 블록(Residual Block) 구조에 통합하여, xLSTM 블록을 설계합니다. 이 블록들을 계층적으로 쌓아서 xLSTM 아키텍쳐를 구축합니다. sLSTM 블록은 트랜스포머와 유사한 Post up-projection 구조를 , mLSTM 블록은 상태 공간 모델과 유사한 pre up-projection 구조를 채택했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 id=&quot;section-5&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;4. 실험 및 결과&lt;/h2&gt;
&lt;h3 id=&quot;section-6&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Dataset&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실험에서&amp;nbsp;사용된&amp;nbsp;주요&amp;nbsp;데이터셋은&amp;nbsp;다음과&amp;nbsp;같습니다:&lt;br /&gt;&lt;br /&gt;&lt;b&gt;SlimPajama&lt;/b&gt;:&amp;nbsp;약&amp;nbsp;15B&amp;nbsp;토큰과&amp;nbsp;300B&amp;nbsp;토큰으로&amp;nbsp;구성된&amp;nbsp;대규모&amp;nbsp;언어&amp;nbsp;모델링&amp;nbsp;데이터셋입니다.&lt;br /&gt;&lt;b&gt;SlimPajama&lt;/b&gt;&amp;nbsp;15B:&amp;nbsp;15B&amp;nbsp;토큰으로&amp;nbsp;모델을&amp;nbsp;훈련하여&amp;nbsp;기본&amp;nbsp;성능을&amp;nbsp;평가합니다.&lt;br /&gt;&lt;b&gt;SlimPajama&lt;/b&gt;&amp;nbsp;300B:&amp;nbsp;300B&amp;nbsp;토큰으로&amp;nbsp;대규모&amp;nbsp;언어&amp;nbsp;모델을&amp;nbsp;훈련하여&amp;nbsp;확장&amp;nbsp;성능을&amp;nbsp;평가합니다.&lt;/p&gt;
&lt;h3 id=&quot;section-7&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Baseline&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실험에서는&amp;nbsp;여러&amp;nbsp;기본&amp;nbsp;모델들과&amp;nbsp;xLSTM의&amp;nbsp;성능을&amp;nbsp;비교합니다:&lt;br /&gt;&lt;br /&gt;&lt;b&gt;Transformers&lt;/b&gt;:&lt;br /&gt;- GPT-3: 350M 파라미터를 가진 트랜스포머 모델.&lt;br /&gt;- Llama: 최근 트랜스포머 기반 언어 모델.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;State Space Models (SSMs):&lt;/b&gt;&lt;br /&gt;- H3&lt;br /&gt;- Mamba&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;Recurrent&amp;nbsp;Neural&amp;nbsp;Networks&amp;nbsp;(RNNs):&lt;/b&gt;&lt;br /&gt;- RWKV-4&lt;br /&gt;- RWKV-5&lt;br /&gt;- RWKV-6&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Linear&amp;nbsp;Transformers:&lt;/b&gt;&lt;br /&gt;- GLA (Gated Linear Attention)&lt;br /&gt;- Retention&lt;br /&gt;- Hyena&lt;/p&gt;
&lt;h3 id=&quot;section-8&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Results&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Validation&amp;nbsp;Perplexity:&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;&lt;b&gt;SlimPajama&amp;nbsp;15B&amp;nbsp;데이터셋에서의&amp;nbsp;결과:&lt;/b&gt;&lt;br /&gt;xLSTM[1:0]:&amp;nbsp;13.43&lt;br /&gt;xLSTM[7:1]:&amp;nbsp;13.48&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이&amp;nbsp;결과는&amp;nbsp;다른&amp;nbsp;모델들(GPT-3,&amp;nbsp;Llama,&amp;nbsp;H3,&amp;nbsp;Mamba,&amp;nbsp;RWKV&amp;nbsp;시리즈&amp;nbsp;등)보다&amp;nbsp;우수함을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;SlimPajama&amp;nbsp;300B&amp;nbsp;데이터셋에서의&amp;nbsp;결과:&lt;/b&gt;&lt;br /&gt;xLSTM[1:0]과&amp;nbsp;xLSTM[7:1]&amp;nbsp;모두&amp;nbsp;8.89~9.00&amp;nbsp;범위&amp;nbsp;내에서&amp;nbsp;최고의&amp;nbsp;성능을&amp;nbsp;보였습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Sequence Length Extrapolation:&lt;/b&gt;&lt;br /&gt;긴&amp;nbsp;시퀀스&amp;nbsp;길이(최대&amp;nbsp;16384)에서&amp;nbsp;xLSTM&amp;nbsp;모델은&amp;nbsp;낮은&amp;nbsp;퍼플렉시티를&amp;nbsp;유지하며,&amp;nbsp;다른&amp;nbsp;모델들보다&amp;nbsp;더&amp;nbsp;긴&amp;nbsp;문맥에서&amp;nbsp;안정적으로&amp;nbsp;작동합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;Downstream Tasks:&lt;/b&gt;&lt;br /&gt;다양한&amp;nbsp;다운스트림&amp;nbsp;작업에서&amp;nbsp;xLSTM은&amp;nbsp;다른&amp;nbsp;모델들보다&amp;nbsp;우수한&amp;nbsp;성능을&amp;nbsp;보였습니다.&lt;br /&gt;예를&amp;nbsp;들어,&amp;nbsp;LAMBADA,&amp;nbsp;HellaSwag,&amp;nbsp;PIQA&amp;nbsp;등&amp;nbsp;다양한&amp;nbsp;작업에서&amp;nbsp;높은&amp;nbsp;정확도를&amp;nbsp;기록했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Scaling Laws:&lt;/b&gt;&lt;br /&gt;모델&amp;nbsp;크기와&amp;nbsp;데이터&amp;nbsp;양이&amp;nbsp;증가함에&amp;nbsp;따라&amp;nbsp;xLSTM의&amp;nbsp;성능이&amp;nbsp;안정적으로&amp;nbsp;향상됨을&amp;nbsp;보여줍니다.&lt;br /&gt;이는&amp;nbsp;xLSTM이&amp;nbsp;대규모&amp;nbsp;언어&amp;nbsp;모델로서&amp;nbsp;확장&amp;nbsp;가능성이&amp;nbsp;높음을&amp;nbsp;시사합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;799&quot; data-origin-height=&quot;496&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bmykZf/btsHsBDFGr2/uYVQylIR6o4TFK8KKSjtAk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bmykZf/btsHsBDFGr2/uYVQylIR6o4TFK8KKSjtAk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bmykZf/btsHsBDFGr2/uYVQylIR6o4TFK8KKSjtAk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbmykZf%2FbtsHsBDFGr2%2FuYVQylIR6o4TFK8KKSjtAk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;528&quot; height=&quot;328&quot; data-origin-width=&quot;799&quot; data-origin-height=&quot;496&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;805&quot; data-origin-height=&quot;592&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/MB4Ss/btsHsKHdzys/K3lNlYqazCpQRn3ArfOav0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/MB4Ss/btsHsKHdzys/K3lNlYqazCpQRn3ArfOav0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/MB4Ss/btsHsKHdzys/K3lNlYqazCpQRn3ArfOav0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FMB4Ss%2FbtsHsKHdzys%2FK3lNlYqazCpQRn3ArfOav0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;805&quot; height=&quot;592&quot; data-origin-width=&quot;805&quot; data-origin-height=&quot;592&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;824&quot; data-origin-height=&quot;380&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/el3MRo/btsHsstgLIo/dk407DhDFB0ZC17tleC9Dk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/el3MRo/btsHsstgLIo/dk407DhDFB0ZC17tleC9Dk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/el3MRo/btsHsstgLIo/dk407DhDFB0ZC17tleC9Dk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fel3MRo%2FbtsHsstgLIo%2Fdk407DhDFB0ZC17tleC9Dk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;690&quot; height=&quot;318&quot; data-origin-width=&quot;824&quot; data-origin-height=&quot;380&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h3 id=&quot;section-9&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Conclusion&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문은 시계열 연구나 LSTM에 관심이 많으신 분들이라면 매우 흥미롭게 읽으셨을 것이라 예상됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;원문에는 수식의 비교가 매우 상세하게 설명되어 있으며 다른 논문에 비해 친절하게 가이드라인이 잡혀있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;하지만 저자들은 한계점에서 sLSTM은 메모리 혼합(memory mixing) 때문에 병렬화된 연산을 허용하지 않아, 빠른 병렬 구현이 불가능하다고 합니다. CUDA 커널을 개발하여 sLSTM의 병렬 처리 성능을 향상시켰으나, 현재의 sLSTM CUDA 커널은 병렬 mLSTM 구현보다 약 1.5 배 느리다고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;mLSTM의 CUDA 커널은 최적화되지 않았기 때문에, 현재 구현은 Flash Attention이나 Mamba에서 사용되는 스캔보다 약 4배 느립니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이론적으로는 xLSTM의 속도가 더 빨라야 하는데, 막상 결과를 보니&amp;nbsp; Flash Attention이나 Mamba보다 느리다고 언급합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 논문의 저자 중 한 명은 LSTM을 1990년부터 연구한 사람입니다. 수학적으로 설명이나 이론에 매우 강하지만, 개인적으로는 아마 개발 능력이 뒷받침되지 못하지 않았나 생각이 드네요. 하지만 본 논문의 결과처럼 성능 면에서는 기존의 강력한 모델들보다 뛰어난 모습을 보여주었으니 기대가 됩니다 !&amp;nbsp;&lt;/p&gt;</description>
      <category>AI</category>
      <category>lstm</category>
      <category>transformer</category>
      <category>논문리뷰</category>
      <category>딥러닝</category>
      <category>시계열</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/117</guid>
      <comments>https://minyoungxi.tistory.com/117#entry117comment</comments>
      <pubDate>Thu, 16 May 2024 22:20:29 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS - 랭크를 줄여라 ! + X-LoRA !!</title>
      <link>https://minyoungxi.tistory.com/116</link>
      <description>&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;LORA_wordcloud.jpg&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c3SrVn/btsHls1LxPN/H9d2zitaHoyLBCpj978Khk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c3SrVn/btsHls1LxPN/H9d2zitaHoyLBCpj978Khk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c3SrVn/btsHls1LxPN/H9d2zitaHoyLBCpj978Khk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc3SrVn%2FbtsHls1LxPN%2FH9d2zitaHoyLBCpj978Khk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;800&quot; height=&quot;400&quot; data-filename=&quot;LORA_wordcloud.jpg&quot; data-origin-width=&quot;800&quot; data-origin-height=&quot;400&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;h2 id=&quot;section-0&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;1. Introduction&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;LoRA paper:&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;a href=&quot;https://arxiv.org/abs/2106.09685&quot;&gt;https://arxiv.org/abs/2106.09685&lt;/a&gt;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;LoRA github:&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;a href=&quot;https://github.com/microsoft/LoRA&quot;&gt;https://github.com/microsoft/LoRA&lt;/a&gt;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이전 트랜스포머 논문&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://minyoungxi.tistory.com/104&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://minyoungxi.tistory.com/104&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1715317978822&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;article&quot; data-og-title=&quot;[논문리뷰] Attention is all you need - 트랜스포머를 모르면 취업을 못해요&quot; data-og-description=&quot;Transformer의 탄생 배경 자연어 처리 분야에서 순환신경망(RNN)은 오랫동안 메인 모델로 사용되어 왔습니다. 하지만 RNN은 길이가 길어질수록 성능이 저하되는 단점이 있었습니다. 그래서 어텐션(Att&quot; data-og-host=&quot;minyoungxi.tistory.com&quot; data-og-source-url=&quot;https://minyoungxi.tistory.com/104&quot; data-og-url=&quot;https://minyoungxi.tistory.com/104&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/5W9YE/hyV2CVSsyc/3jsB20qKJ19rJSV1zhI3KK/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803,https://scrap.kakaocdn.net/dn/bjZnJU/hyV2yza9Ma/0UKtmSxOuBVKEhK90Hn5I1/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803&quot;&gt;&lt;a href=&quot;https://minyoungxi.tistory.com/104&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://minyoungxi.tistory.com/104&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/5W9YE/hyV2CVSsyc/3jsB20qKJ19rJSV1zhI3KK/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803,https://scrap.kakaocdn.net/dn/bjZnJU/hyV2yza9Ma/0UKtmSxOuBVKEhK90Hn5I1/img.png?width=800&amp;amp;height=803&amp;amp;face=0_0_800_803');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;[논문리뷰] Attention is all you need - 트랜스포머를 모르면 취업을 못해요&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;Transformer의 탄생 배경 자연어 처리 분야에서 순환신경망(RNN)은 오랫동안 메인 모델로 사용되어 왔습니다. 하지만 RNN은 길이가 길어질수록 성능이 저하되는 단점이 있었습니다. 그래서 어텐션(Att&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;minyoungxi.tistory.com&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot;&gt;논문이 다루는 task &amp;amp; 해당 task에서 기존 연구 한계점&lt;/span&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 논문은 자연어 처리(Natural Language Processing, NLP) 분야에서 널리 사용되는 대규모 사전 훈련된 언어 모델의 효율적인 태스크 및 도메인 특화적인 적응(adaptation) 방법에 대해 다룹니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;자연어 처리의 많은 애플리케이션은 하나의 대규모 pre trained 된 언어 모델을 여러 다운스트림 애플리케이션에 적용하는 데 의존합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한 방법은 주로 fine-tuning을 통해 이루어지는데, 이 방법은 단점은 새 모델에 원래 모델만큼 많은 파라미터가 포함된다는 것입니다. 더 큰 모델이 몇 달마다 학습되면서 GPT-3 와 같이 1,750억 개의 학습 가능한 파라미터가 있는 모델이 되는 것이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일부 파라미터만 조정하거나 새로운 task를 위한 외부 모듈을 학습하는 다양한 시도가 있엇습니다. 이런 방법은 각 task에 대해 사전 학습된 모델 외에 소수의 task 별 파라미터만 저장하고 로드하면 되므로 배포할 때 제약이 많이 줄어듭니다. 하지만 모델 깊이를 더 깊게하거나 모델의 사용 가능한 시퀀스의 길이를 줄여서 추론 대기 시간이 도입됩니다. 더 중요한 부분은 이러한 방법이 fine-tuning baseline과 일치하지 않는 경우가 많아서 효율성과 모델 품질 사이에 격차가 발생한다는 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자들은 GPT-3 175B와 같은 매우 큰 모델들을 더 효율적으로 파인 튜닝하고, 모델의 특정 레이어에 저랭크(rank) 행렬을 삽입하여 적응성을 향상시키는 &lt;b&gt;'저랭크&amp;nbsp;적응(Low-Rank&amp;nbsp;Adaptation,&amp;nbsp;LoRA)'&lt;/b&gt; 기법을 제안합니다. 이 방법은 기존의 전체 파라미터를 재학습하는 파인 튜닝에 비해 훨씬 적은 수의 훈련 가능한 파라미터를 사용함으로써, 계산 비용 및 메모리 요구사항을 크게 줄입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 id=&quot;section-1&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;2. Related Work&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이&amp;nbsp;논문에서는&amp;nbsp;기존의&amp;nbsp;언어&amp;nbsp;모델&amp;nbsp;적응&amp;nbsp;방법들을&amp;nbsp;소개하고&amp;nbsp;LoRA와&amp;nbsp;비교합니다.&amp;nbsp;특히,&amp;nbsp;자연어&amp;nbsp;처리&amp;nbsp;분야에서&amp;nbsp;전이&amp;nbsp;학습을&amp;nbsp;위한&amp;nbsp;다양한&amp;nbsp;접근&amp;nbsp;방식이&amp;nbsp;소개되며,&amp;nbsp;이들&amp;nbsp;방법들은&amp;nbsp;주로&amp;nbsp;&lt;b&gt;어댑터&amp;nbsp;레이어(Adapter&amp;nbsp;Layers)&lt;/b&gt;를&amp;nbsp;사용하거나&amp;nbsp;입력&amp;nbsp;계층&amp;nbsp;활성화를&amp;nbsp;최적화하는&amp;nbsp;것에&amp;nbsp;초점을&amp;nbsp;맞추고&amp;nbsp;있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러나&amp;nbsp;이러한&amp;nbsp;방식은&amp;nbsp;추가적인&amp;nbsp;추론&amp;nbsp;지연을&amp;nbsp;발생시키거나&amp;nbsp;모델의&amp;nbsp;사용&amp;nbsp;가능한&amp;nbsp;시퀀스&amp;nbsp;길이를&amp;nbsp;줄이는&amp;nbsp;단점이&amp;nbsp;있습니다.&amp;nbsp;이러한&amp;nbsp;한계를&amp;nbsp;극복하기&amp;nbsp;위한&amp;nbsp;새로운&amp;nbsp;방법론으로&amp;nbsp;LoRA가&amp;nbsp;제안되었습니다.&lt;/p&gt;
&lt;h2 id=&quot;section-2&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;3. 제안 방법론&lt;/h2&gt;
&lt;h3 id=&quot;section-3&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Main Idea&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;1-low-rank-parametrized-update-matrices&quot; style=&quot;background-color: #ffffff; color: #3d4144; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt; What is Rank?&lt;/b&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;LoRA(Low-Rank Adaptation)&lt;/b&gt;를&amp;nbsp;설명하려면 먼저&amp;nbsp;&lt;b&gt;'행렬에서의 Rank(랭크)'&lt;/b&gt;의 의미부터 이해해야 합니다. 행렬에서 랭크는 행렬을 구성하는 행 또는 열 벡터들 중 서로 &lt;b&gt;독립적인 벡터의 최대 개수&lt;/b&gt;를 의미합니다. 이는 행렬이 정보를 얼마나 '밀도 있게' 담고 있는지를 나타내는 지표로 볼 수 있습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;랭크의&amp;nbsp;중요성&lt;/b&gt;&lt;br /&gt;행렬의&amp;nbsp;랭크는&amp;nbsp;그&amp;nbsp;행렬이&amp;nbsp;연산될&amp;nbsp;때&amp;nbsp;&lt;b&gt;계산&amp;nbsp;복잡성&lt;/b&gt;과&amp;nbsp;직결됩니다.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;랭크가&amp;nbsp;낮은&amp;nbsp;행렬은&amp;nbsp;많은&amp;nbsp;정보가&amp;nbsp;중첩되어&amp;nbsp;있거나&amp;nbsp;불필요한&amp;nbsp;정보가&amp;nbsp;적다는&amp;nbsp;것을&amp;nbsp;의미하며,&amp;nbsp;이는&amp;nbsp;계산을&amp;nbsp;더&amp;nbsp;효율적으로&amp;nbsp;만듭니다.&amp;nbsp;&lt;b&gt;따라서&amp;nbsp;랭크가&amp;nbsp;낮을수록,&amp;nbsp;즉&amp;nbsp;정보가&amp;nbsp;간결할수록&amp;nbsp;파라미터&amp;nbsp;수가&amp;nbsp;적어져&amp;nbsp;계산&amp;nbsp;속도가&amp;nbsp;빨라집니다.&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음은 랭크가 2인 3 x 3 행렬의 예시입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 행렬 A의 두 번째 및 세 번째 열은 첫 번째 열의 간단한 배수입니다. 즉, 모든 열벡터는 선형 족속 관계에 있으며, 실제로 독립적인 정보를 가진 열 벡터는 하나 뿐입니다. 따라서 이 행렬의 랭크는 1이 되는 것이죠&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$&amp;nbsp;&lt;br /&gt;\begin{bmatrix}&lt;br /&gt;1&amp;nbsp;&amp;amp;&amp;nbsp;2&amp;nbsp;&amp;amp;&amp;nbsp;3&amp;nbsp;\\&lt;br /&gt;2&amp;nbsp;&amp;amp;&amp;nbsp;4&amp;nbsp;&amp;amp;&amp;nbsp;6&amp;nbsp;\\&lt;br /&gt;3&amp;nbsp;&amp;amp;&amp;nbsp;6&amp;nbsp;&amp;amp;&amp;nbsp;9&lt;br /&gt;\end{bmatrix}&lt;br /&gt;$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 행렬을 보면 첫 번째와 두 번째 행은 선형 독립입니다. 그러나 세 번째 행은 0으로만 구성되어 있어서 어떠한 새로운 정보도 제공하지 않습니다. 따라서 이 행렬의 랭크는 2가 됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$&amp;nbsp;&lt;br /&gt;\begin{bmatrix}&lt;br /&gt;1 &amp;amp; 0 &amp;amp; 3 \\&lt;br /&gt;0 &amp;amp; 1 &amp;amp; 3 \\&lt;br /&gt;0 &amp;amp; 0 &amp;amp; 0&lt;br /&gt;\end{bmatrix}&lt;br /&gt;$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;1-low-rank-parametrized-update-matrices&quot; style=&quot;background-color: #ffffff; color: #3d4144; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;&lt;b&gt;Low-Rank-Parametrized Update Matrices&lt;/b&gt;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;신경망에는 행렬 곱셈을 수행하는 많은 레이어가 포함되어 있죠. 이러한 레이어의 가중치 행렬은 일반적으로 full-rank를 갖습니다. 특정 task에 적응할 때, 사전 학습된 언어 모델은 더 작은 subspace로의 랜덤 projection에도 불구하고 여전히 효율적으로 학습할 수 있으며, 낮은 &lt;b&gt;&quot;내재 차원(instrisic dimension)&quot;&amp;nbsp;&lt;/b&gt;을 갖습니다. 저자들은 이에 영감을 받아서 가중치에 대한 업데이트도 adpatation 중에 낮은 instrisic rank를 갖는다고 가정합니다. 사전 학습된 가중치 행렬 $W_0 \in \mathbb{R}^{d \times k} $ 의 경우&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$$ W_0 + \Delta W = W_0 + BA $$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$$ where B \in \mathbb{R}^{d \times k} , A \in \mathbb{R}^{r \times k} , r &amp;lt;&amp;lt; min(d,k) $$&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;로 표현해서 업데이트를 제한합니다. 여기서 $r$은 rank를 뜻합니다. 학습하는 동안 $W_0$는 고정되고 기울기 업데이트를 받지 않는 반면 A와 B는 학습 가능한 파라미터를 포함합니다. $W_0$ 와 $\Delta W = BA $&amp;nbsp; 는 모두 동일한 입력으로 곱해지고 각각의 출력 벡터는 좌표 방향으로 합산됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2466&quot; data-origin-height=&quot;1257&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/kYrTn/btsHlzmCzDd/bYUK4GnKesGnGTVMkOhjm1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/kYrTn/btsHlzmCzDd/bYUK4GnKesGnGTVMkOhjm1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/kYrTn/btsHlzmCzDd/bYUK4GnKesGnGTVMkOhjm1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FkYrTn%2FbtsHlzmCzDd%2FbYUK4GnKesGnGTVMkOhjm1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;516&quot; height=&quot;263&quot; data-origin-width=&quot;2466&quot; data-origin-height=&quot;1257&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style3&quot;&gt;추가 설명&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$$ W_0 + \Delta W = W_0 + BA $$ 이 식은 사전 훈련된 모델의 가중치 $W_0$에 저랭크 행렬의 곱 $BA$를 더하여 새로운 가중치 $W$를 형성합니다. 여기서 $\Delta W$는 $W_0$의 업데이트(변화량)를 나타내고 $BA$로 표현됩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$ B \in \mathbb{R}^{d \times k} , A \in \mathbb{R}^{r \times k} $ 는 $B$와 $A$는 저랭크 행렬 분해를 통해 나타내어지며, $B$는 $d$ x $r$ 차원이고 , A는 $r$ x $k$ 차원입니다. 이 행렬들은 $ \Delta W $를 저랭크 공간에서 표현하기 위한 기저를 형성합니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;해당 수식을 보면 전체 가중치 $W_0$ 의 크기를 변경하지 않고, 작은 크기의 $B$와 $A$만 업데이트하여 메모리 사용량을 크게 줄일 수 있습니다. $r$이 작기 때문에 $BA$의 계산과 역전파가 빠르게 수행될 수 있어서 전체적인 학습 및 추론 속도가 향상됩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;$B$와 $A$만 조정되면 되므로, 다양한 테스크에 모델을 빠르게 적응시킬 수 있습니다. 이러한 수식은 대규모 언어 모델을 다양한 NLP task에 효과적으로 적용하는 데 있어서 기존의 전체 파인 튜닝 방식에 비해 상당한 계산 및 저장 공산의 이점을 제공합니다.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;405&quot; data-origin-height=&quot;364&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/uQK3J/btsHmtTwgtN/41I9Nf5DaezZXvDymaw0uK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/uQK3J/btsHmtTwgtN/41I9Nf5DaezZXvDymaw0uK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/uQK3J/btsHmtTwgtN/41I9Nf5DaezZXvDymaw0uK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FuQK3J%2FbtsHmtTwgtN%2F41I9Nf5DaezZXvDymaw0uK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;299&quot; height=&quot;269&quot; data-origin-width=&quot;405&quot; data-origin-height=&quot;364&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위 그림은 reparameterization을 설명하고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$A$에는 랜덤 가우시안 초기화를 사용하고 $B$에는 0을 사용하므로 학습 시작 시 $BA$ = 0 입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문의 세부사항을 보시면 알파를 순위로 나눈 값으로 스케일링 된다는 것을 확인할 수 있는데요,&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$r$은 고유 차원에 해당합니다. 1부터 64까지의 행렬을 어느 정도로 분해하고 가중치에 대한 압축 정도를 표현하고 싶은지 정할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;여기서 $\alpha$는 스케일링 요소입니다. 단순히 원래 모델 가중치에 추가되는 변화의 양을 제어하므로 지식의 균형을 유지합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;사전 훈련된 모델과 새로운 task에 대한 적응의 간극을 줄여주는 것이죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;$r$ 과 $\alpha$는 모두 하이퍼 파라미터 입니다. 값들을 조정하면서 출력의 변화를 관찰할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2231&quot; data-origin-height=&quot;1104&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bTng6L/btsHltNmmLp/dFYsmYLIdhRSyJgw5NKDe0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bTng6L/btsHltNmmLp/dFYsmYLIdhRSyJgw5NKDe0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bTng6L/btsHltNmmLp/dFYsmYLIdhRSyJgw5NKDe0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbTng6L%2FbtsHltNmmLp%2FdFYsmYLIdhRSyJgw5NKDe0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;429&quot; height=&quot;212&quot; data-origin-width=&quot;2231&quot; data-origin-height=&quot;1104&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-pm-slice=&quot;3 3 []&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;LoRA는 가중치 행렬에 low-rank 행렬을 추가하여 파라미터 효율적인 fine-tuning을 가능하게 합니다. 이를 통해 학습 가능한 파라미터 수를 크게 줄일 수 있습니다.&lt;/li&gt;
&lt;li&gt;LoRA 기반 학습은 파라미터 수 증가에 따라 전체 fine-tuning에 근접하게 수렴합니다.&lt;/li&gt;
&lt;li&gt;배포 시 업데이트된 파라미터를 사전 학습된 가중치에 병합할 수 있어 inference 시 추가 지연 시간이 발생하지 않습니다.&lt;/li&gt;
&lt;li&gt;Transformer 아키텍처에서는 self-attention 모듈의 가중치 행렬에 LoRA를 적용할 수 있습니다.&lt;/li&gt;
&lt;li&gt;LoRA의 주요 이점은 메모리 및 저장 공간 사용량 감소, 작업 간 전환의 용이성, 학습 속도 향상 등입니다.&lt;/li&gt;
&lt;li&gt;그러나 단일 forward pass에서 여러 작업을 위한 LoRA 모듈을 동적으로 선택하는 것은 쉽지 않다는 한계도 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&quot;section-4&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Contribution&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LoRA로 인해 하드웨어의 요구사항의 부담이 많이 줄었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;파라미터의 수가 훨씬 적어졌고, 훈련 시간이 감소했으며 RAM usage도 많이 줄어들었죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 $\Delta W$ 가중치를 간단히 병합할 수 있게 되었습니다.&amp;nbsp;&lt;/p&gt;
&lt;h2 id=&quot;section-5&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;4. 실험 및 결과&lt;/h2&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Baseline&lt;/h3&gt;
&lt;ul style=&quot;list-style-type: disc; background-color: #ffffff; color: #3d4144; text-align: start;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;FT&lt;/b&gt;: Fine-Tuning&lt;/li&gt;
&lt;li&gt;&lt;b&gt;FTTop2&lt;/b&gt;: 마지막 두 레이어만 튜닝&lt;/li&gt;
&lt;li&gt;&lt;b&gt;BitFit&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;AdapH&lt;/b&gt;: 오리지널 adapter tuning&lt;/li&gt;
&lt;li&gt;&lt;b&gt;AdapL&lt;/b&gt;: MLP 모듈 뒤와 LayerNorm 뒤에만 adapter layer 적용 (&lt;a style=&quot;color: #2f7d95;&quot; href=&quot;https://arxiv.org/abs/2004.03829&quot;&gt;논문&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;AdapP&lt;/b&gt;:&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;a style=&quot;color: #2f7d95;&quot; href=&quot;https://arxiv.org/abs/2005.00247&quot;&gt;AdapterFusion&lt;/a&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;(AdapL과 유사)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;AdapD&lt;/b&gt;:&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;a style=&quot;color: #2f7d95;&quot; href=&quot;https://arxiv.org/abs/2010.11918&quot;&gt;AdapterDrop&lt;/a&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;(몇몇 adapter layer를 drop)&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&quot;section-8&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Results&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다양한 adaptation 방법을 적용한 GLUE 벤치 마크&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1237&quot; data-origin-height=&quot;614&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/lqX9E/btsHmzsulNU/L3WNlHgHYTv6beqGZyxzL1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/lqX9E/btsHmzsulNU/L3WNlHgHYTv6beqGZyxzL1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/lqX9E/btsHmzsulNU/L3WNlHgHYTv6beqGZyxzL1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FlqX9E%2FbtsHmzsulNU%2FL3WNlHgHYTv6beqGZyxzL1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1237&quot; height=&quot;614&quot; data-origin-width=&quot;1237&quot; data-origin-height=&quot;614&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다양한 adaptation 방법을 적용한 GPT-3 175B의 성능 비교 결과&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;864&quot; data-origin-height=&quot;366&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bZZjq8/btsHkjyahBo/STJBkWP62FfXRUotul2Ht1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bZZjq8/btsHkjyahBo/STJBkWP62FfXRUotul2Ht1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bZZjq8/btsHkjyahBo/STJBkWP62FfXRUotul2Ht1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbZZjq8%2FbtsHkjyahBo%2FSTJBkWP62FfXRUotul2Ht1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;678&quot; height=&quot;287&quot; data-origin-width=&quot;864&quot; data-origin-height=&quot;366&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다양한 adaptation 방법을 적용한 GPT-3 175B의 정확도와 파라미터 개수에 대한 그래프&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1332&quot; data-origin-height=&quot;425&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ylo1n/btsHmAkEj6B/1PooKQTpbOsWkbFqrNk1r0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ylo1n/btsHmAkEj6B/1PooKQTpbOsWkbFqrNk1r0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ylo1n/btsHmAkEj6B/1PooKQTpbOsWkbFqrNk1r0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fylo1n%2FbtsHmAkEj6B%2F1PooKQTpbOsWkbFqrNk1r0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1332&quot; height=&quot;425&quot; data-origin-width=&quot;1332&quot; data-origin-height=&quot;425&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LoRA를 위한 최적의 rank $r$은 무엇일까?&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 표에서 볼 수 있듯이 rank를 높인다고 성능이 반드시 향상되는 것은 아닙니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터셋에 따라서 다른 성능을 보여주고 있습니다. 랭크를 선택할 때 물어봐야 할 좋은 질문은 pre trained 모델이 유사한 데이터를 보았는지 입니다. 또는 나의 데이터 세트가 다르면 더 높은 랭크를 선택해야 할 수도 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1009&quot; data-origin-height=&quot;275&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/epQfoX/btsHkmIpAkc/qMemrod9nS1cynXX4QFmB1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/epQfoX/btsHkmIpAkc/qMemrod9nS1cynXX4QFmB1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/epQfoX/btsHkmIpAkc/qMemrod9nS1cynXX4QFmB1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FepQfoX%2FbtsHkmIpAkc%2FqMemrod9nS1cynXX4QFmB1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;651&quot; height=&quot;177&quot; data-origin-width=&quot;1009&quot; data-origin-height=&quot;275&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;section-9&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Conclusion&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2402.07148&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://arxiv.org/abs/2402.07148&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1715321148973&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;website&quot; data-og-title=&quot;X-LoRA: Mixture of Low-Rank Adapter Experts, a Flexible Framework for Large Language Models with Applications in Protein Mechani&quot; data-og-description=&quot;We report a mixture of expert strategy to create fine-tuned large language models using a deep layer-wise token-level approach based on low-rank adaptation (LoRA). Starting with a set of pre-trained LoRA adapters, our gating strategy uses the hidden states&quot; data-og-host=&quot;arxiv.org&quot; data-og-source-url=&quot;https://arxiv.org/abs/2402.07148&quot; data-og-url=&quot;https://arxiv.org/abs/2402.07148v2&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/bem2r7/hyV2ysrsMR/hYK9hWgLBJFGbltFo8O74k/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bJTJAe/hyV2wajHLg/p5pPWyvMSFK6RFr8gGSQ31/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000&quot;&gt;&lt;a href=&quot;https://arxiv.org/abs/2402.07148&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://arxiv.org/abs/2402.07148&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/bem2r7/hyV2ysrsMR/hYK9hWgLBJFGbltFo8O74k/img.png?width=1200&amp;amp;height=700&amp;amp;face=0_0_1200_700,https://scrap.kakaocdn.net/dn/bJTJAe/hyV2wajHLg/p5pPWyvMSFK6RFr8gGSQ31/img.png?width=1000&amp;amp;height=1000&amp;amp;face=0_0_1000_1000');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;X-LoRA: Mixture of Low-Rank Adapter Experts, a Flexible Framework for Large Language Models with Applications in Protein Mechani&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;We report a mixture of expert strategy to create fine-tuned large language models using a deep layer-wise token-level approach based on low-rank adaptation (LoRA). Starting with a set of pre-trained LoRA adapters, our gating strategy uses the hidden states&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;arxiv.org&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근에 X-LoRA 라는 최신 논문을 읽다가 LoRA도 다시 정리해야겠다고 생각해서 리뷰를 진행했습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1534&quot; data-origin-height=&quot;858&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/2gtwx/btsHlLtHDsj/VV5McvH8wVZNKFMSjEDTJ1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/2gtwx/btsHlLtHDsj/VV5McvH8wVZNKFMSjEDTJ1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/2gtwx/btsHlLtHDsj/VV5McvH8wVZNKFMSjEDTJ1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F2gtwx%2FbtsHlLtHDsj%2FVV5McvH8wVZNKFMSjEDTJ1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1534&quot; height=&quot;858&quot; data-origin-width=&quot;1534&quot; data-origin-height=&quot;858&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;X-LoRA는 여러 LoRA 어댑터를 동적으로 혼합하여 사용하는 새로운 접근 방식을 제안합니다. 이는 토큰 수준에서 각각 다른 어댑터들을 조합하여 사용하며, 이를 통해 모델이 더 다양하고 복잡한 테스크를 효율적으로 해결할 수 있도록 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존의 LoRA가 특정 테스크에 맞춰 저차원의 파라미터만을 학습하는 방식과 차이가 있죠. 이는 모델의 전반적인 가중치는 그대로 유지한 채로, 특정 레이어에만 저랭크 행렬을 추가하여 조정합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1448&quot; data-origin-height=&quot;1318&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nVrEz/btsHl6jSMzl/9ARK9HHK2JzUOnxv04iNk1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nVrEz/btsHl6jSMzl/9ARK9HHK2JzUOnxv04iNk1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nVrEz/btsHl6jSMzl/9ARK9HHK2JzUOnxv04iNk1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FnVrEz%2FbtsHl6jSMzl%2F9ARK9HHK2JzUOnxv04iNk1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;552&quot; height=&quot;502&quot; data-origin-width=&quot;1448&quot; data-origin-height=&quot;1318&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 동적 게이팅 메커니즘을 도입하여, 모델의 히든 스테이트에 기반하여 실시간으로 어댑터들의 활성화를 결정합니다. 이는 특정 입력에 대해 가장 적합한 어댑터를 선택하고 조합함으로써 보다 정교한 출력을 가능하게 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LoRA의 경우 어댑터가 활성화되는 것은 주로 고정된 매개변수에 의존하죠.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;X-LoRA는 과학적 데이터와 복잡한 기술적 문제를 해결하는 데 특화된 어댑터를 개발하고, 이를 통합하여 사용함으로써 보다 전문적인 영역에서도 뛰어난 성능을 발휘할 수 있습니다. 특히, 단백질 역학, 분자 설계 등 생명 과학 분야에서의 응용을 강조합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 X-LoRA는 개별 토큰과 레이어 수준에서 어댑터를 동적으로 혼합하며, 이를 통해 훨씬 더 세밀하고 유동적인 모델 조정이 가능해집니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문을 직접 보시면 분량이 굉장히 많은데요, 다양한 전문 분야에서 기존의 LoRA 보다 더 높은 정확도와 간결한 답변을 제공하는 예시가 많습니다. 저는 도메인에 확실히 특화되었다고 느꼈습니다. 예를 들어, 단백질의 나노역학적 성질 예측과 같은 고도의 과학적인 테스크에서 예상치 못한 인사이트를 도출하기도 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1262&quot; data-origin-height=&quot;1170&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/LuOGs/btsHm2gFv7S/Vy2HX0vkkjEwXZ08uTv6Y1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/LuOGs/btsHm2gFv7S/Vy2HX0vkkjEwXZ08uTv6Y1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/LuOGs/btsHm2gFv7S/Vy2HX0vkkjEwXZ08uTv6Y1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FLuOGs%2FbtsHm2gFv7S%2FVy2HX0vkkjEwXZ08uTv6Y1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;569&quot; height=&quot;528&quot; data-origin-width=&quot;1262&quot; data-origin-height=&quot;1170&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/116</guid>
      <comments>https://minyoungxi.tistory.com/116#entry116comment</comments>
      <pubDate>Fri, 10 May 2024 15:24:05 +0900</pubDate>
    </item>
    <item>
      <title>[Medical Series : BioSignal ] - ECG랑 PPG로 심혈관 정보를 알아내볼까?</title>
      <link>https://minyoungxi.tistory.com/114</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;비침습적인 생체신호를 통해 알아낼 수 있는 심혈관 정보&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;500&quot; data-origin-height=&quot;399&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dWGxZ4/btsHhsacM6W/6T4xD6otbk1cQ2IzGkymik/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dWGxZ4/btsHhsacM6W/6T4xD6otbk1cQ2IzGkymik/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dWGxZ4/btsHhsacM6W/6T4xD6otbk1cQ2IzGkymik/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdWGxZ4%2FbtsHhsacM6W%2F6T4xD6otbk1cQ2IzGkymik%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;500&quot; height=&quot;399&quot; data-origin-width=&quot;500&quot; data-origin-height=&quot;399&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot;&gt;비침습적인 생체신호를 통해 알아낼 수 있는 심혈관 정보에는 여러 가지가 있으며, &lt;b&gt;ECG(Electrocardiogram, 심전도)와 PPG(Photoplethysmogram, 광용적맥파)&lt;/b&gt;는 이 중에서도 매우 중요한 역할을 합니다. 이들 각각의 신호를 통해 얻을 수 있는 정보와 그 의학적 의미에 대해 자세히 설명하겠습니다.&lt;/span&gt;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;ECG (Electrocardiogram, 심전도)&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;300&quot; data-origin-height=&quot;168&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/HrVLS/btsHjwidQo6/1JXbk8K6qEafRXUtfQtYx1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/HrVLS/btsHjwidQo6/1JXbk8K6qEafRXUtfQtYx1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/HrVLS/btsHjwidQo6/1JXbk8K6qEafRXUtfQtYx1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FHrVLS%2FbtsHjwidQo6%2F1JXbk8K6qEafRXUtfQtYx1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;570&quot; height=&quot;319&quot; data-origin-width=&quot;300&quot; data-origin-height=&quot;168&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;ECG는 심장의 전기적 활동을 측정하는 방법으로, 심장의 리듬과 속도, 그리고 일부 질환을 진단&lt;/b&gt;하는 데 사용됩니다. ECG 신호에서 QRS 복합체의 시간 간격과 모양은 심장의 펌프질 효율성과 관련이 있어 심박출량 추정에 유용할 수 있습니다. 예를 들어, QRS 기간의 변화는 심장의 전기적 활동과 관련이 있으며, 이는 심장의 수축력과 연관될 수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;심박수(Heart Rate, HR):&lt;/b&gt; ECG와 PPG 신호의 peak 간격으로부터 분당 심박수를 계산할 수 있습니다. 심박수는 심박출량과 밀접한 관련이 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;심박변이도(Heart Rate Variability, HRV):&lt;/b&gt; 심박 간격의 변동성을 분석하여 자율신경계 활동을 평가할 수 있습니다. HRV는 심장 기능과 건강 상태를 반영합니다. 이를 통해 교감신경과 부교감 신경의 균형 및 심혈관계 조절 기능을 평가할 수 있습니다. HRV의 감소는 자율신경계 이상이나 심혈관 위험과 관련될 수도 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;맥파전달시간(Pulse Transit Time, PTT):&lt;/b&gt; ECG의 R peak와 PPG의 peak 사이의 시간 차이로 정의되며, 혈관 탄성도와 혈압과 관련이 있습니다. PTT는 심박출량 변화를 간접적으로 반영할 수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;맥파전달속도(Pulse Wave Velocity, PWV):&lt;/b&gt; PTT를 이용하여 계산되며, 동맥 경직도를 나타내는 지표입니다. PWV는 심혈관 건강과 관련이 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;PPG (Photoplethysmogram, 광용적맥파)&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;382&quot; data-origin-height=&quot;132&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bTsx5b/btsHgaaer5v/wRyxCAIKpOTkU307hACTnK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bTsx5b/btsHgaaer5v/wRyxCAIKpOTkU307hACTnK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bTsx5b/btsHgaaer5v/wRyxCAIKpOTkU307hACTnK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbTsx5b%2FbtsHgaaer5v%2FwRyxCAIKpOTkU307hACTnK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;382&quot; height=&quot;132&quot; data-origin-width=&quot;382&quot; data-origin-height=&quot;132&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;PPG는 피부에 가까이 위치한 센서를 통해 혈관을 통과하는 혈액의 볼륨 변화를 측정하는 기술입니다. 이 방법은 심박수, 혈액 산소 포화도, 그리고 혈관의 건강 상태를 감지할 수 있습니다. PPG 신호는 심장 박동에 의해 혈관 내의 혈액 양이 변화할 때 발생하는 빛의 흡수 및 반사의 변화를 측정합니다. 심박출량을 추정하기 위해, PPG 신호의 파형과 시간 간격 분석을 통해 혈액 흐름과 관련된 정보를 추출할 수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PPG 파형 분석:&lt;/b&gt; PPG 신호의 모양과 특징점들을 분석하여 혈관 탄성도, 혈류량 변화, 말초 혈관 저항 등을 추정할 수 있습니다. 이는 심박출량과 관련된 정보를 제공합니다.&amp;nbsp;맥파의 모양, 크기, 전달 속도 등을 분석하여 말초 혈관의 탄성도와 기능을 평가할 수 있습니다. 맥파 전달 속도 증가나 PPG 파형의 변화는 혈관 경직도 증가를 시사할 수 있습니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;이러한 정보들은 심혈관 질환의 조기 진단, 위험 평가, 모니터링 등에 활용될 수 있습니다. 또한 운동, 스트레스, 약물 등에 대한 심혈관계의 반응을 평가하는 데에도 도움이 됩니다.&lt;/p&gt;
&lt;p style=&quot;background-color: #ffffff; color: #0d0d0d; text-align: start;&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러나 ECG와 PPG는 심장의 구조적 정보를 직접적으로 제공하지는 않습니다. 보다 상세한 심장 구조와 기능의 평가를 위해서는 심초음파, 심장 MRI, 심장 CT 등의 영상 기법이 필요할 수 있습니다. 또한 ECG와 PPG의 해석에는 전문적인 지식과 임상적 맥락을 고려해야 합니다.&lt;/p&gt;</description>
      <category>Medical</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/114</guid>
      <comments>https://minyoungxi.tistory.com/114#entry114comment</comments>
      <pubDate>Wed, 8 May 2024 23:55:23 +0900</pubDate>
    </item>
    <item>
      <title>[Medical Series : Can you feel my Heartbeat? ] - 심전도는 12가지 통로가 있어</title>
      <link>https://minyoungxi.tistory.com/113</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;심장으로 흐르는 12가지의 전기 통로&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;896&quot; data-origin-height=&quot;480&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bZTujm/btsHct8MFro/zknW0w537mdvHsvNYzkWy0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bZTujm/btsHct8MFro/zknW0w537mdvHsvNYzkWy0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bZTujm/btsHct8MFro/zknW0w537mdvHsvNYzkWy0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbZTujm%2FbtsHct8MFro%2FzknW0w537mdvHsvNYzkWy0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;642&quot; height=&quot;344&quot; data-origin-width=&quot;896&quot; data-origin-height=&quot;480&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심전도(ECG)의 각 리드는 심장의 다양한 부위에서 발생하는 전기적 신호를 측정합니다. 이를 통해 심장의 기능과 상태를 평가할 수 있습니다.&amp;nbsp; 전통적인 12-lead ECG는 다음과 같은 리드로 구성됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;표준 임상 리드(Limb Leads)&amp;nbsp;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;400&quot; data-origin-height=&quot;386&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bzLQwH/btsHhss8tZP/QZq70xYWWwnjefTGFjOKr0/img.gif&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bzLQwH/btsHhss8tZP/QZq70xYWWwnjefTGFjOKr0/img.gif&quot; data-alt=&quot;출처 :&amp;amp;nbsp;https://www.nottingham.ac.uk/nursing/practice/resources/cardiology/function/bipolar_leads.php&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bzLQwH/btsHhss8tZP/QZq70xYWWwnjefTGFjOKr0/img.gif&quot; srcset=&quot;https://blog.kakaocdn.net/dn/bzLQwH/btsHhss8tZP/QZq70xYWWwnjefTGFjOKr0/img.gif&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;400&quot; height=&quot;386&quot; data-origin-width=&quot;400&quot; data-origin-height=&quot;386&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 :&amp;nbsp;https://www.nottingham.ac.uk/nursing/practice/resources/cardiology/function/bipolar_leads.php&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;표준 임상 리드(Standard limb leads)&lt;/b&gt;는 심전도에서 사용하는 기본적인 리드 유형 중 하나로, 심장의 전기적 활동을 측정하는 데 사용됩니다. 이 리드들은 심장의 전기적 신호를 다양한 각도에서 포착하여 심장의 기능과 상태를 평가하는 데 중요한 역할을 합니다. 표준 임상 리드는 심전도에서 기본적으로 사용되는 세 개의 리드, 즉 리드 1~3을 포함합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드 I&lt;/b&gt;: 왼쪽 팔과 오른쪽 팔 사이의 전기적 활동을 측정합니다. 이 리드는 &lt;b&gt;심장의 좌우 방향&lt;/b&gt;을 보여줍니다. ( 좌심실 측벽, lateral wall )&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드 II&lt;/b&gt;: 오른쪽 팔과 왼쪽 다리 사이의 전기적 활동을 측정합니다. 이는 주로 &lt;b&gt;심장의 수직적 활동&lt;/b&gt;을 보여줍니다. ( 좌심실 하벽, inferiorwall&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;리드 III&lt;/b&gt;: 왼쪽 팔과 왼쪽 다리 사이의 전기적 활동을 측정합니다. ( 좌심실 하벽, inferior wall )&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이&amp;nbsp;리드들은&amp;nbsp;심전도의&amp;nbsp;기본적인&amp;nbsp;구성을&amp;nbsp;이루며,&amp;nbsp;함께&amp;nbsp;사용될&amp;nbsp;때&amp;nbsp;심장의&amp;nbsp;전기적&amp;nbsp;활동을&amp;nbsp;종합적으로&amp;nbsp;이해하는&amp;nbsp;데&amp;nbsp;도움을&amp;nbsp;줍니다.&amp;nbsp;이러한&amp;nbsp;기본적인&amp;nbsp;정보를&amp;nbsp;바탕으로&amp;nbsp;심장의&amp;nbsp;정상적인&amp;nbsp;기능&amp;nbsp;여부와&amp;nbsp;특정&amp;nbsp;심장&amp;nbsp;질환의&amp;nbsp;존재를&amp;nbsp;파악할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;예를&amp;nbsp;들어,&amp;nbsp;심근경색,&amp;nbsp;부정맥&amp;nbsp;등&amp;nbsp;다양한&amp;nbsp;심장&amp;nbsp;질환이&amp;nbsp;이&amp;nbsp;리드들을&amp;nbsp;통해&amp;nbsp;진단될&amp;nbsp;수&amp;nbsp;있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그렇다면 각 리드별로 심장에 영향을 주는 요인을 정리해볼까요 ?&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드 I :&amp;nbsp;&lt;/b&gt;심장의 수평 축을 따라 발생하는 전기적 활동을 분석하며 좌심실 비대, 좌각차단, 좌심실 허혈 등에 민감하게 반응합니다. 이를 확인할 수 있는 방법은 QRS 파형을 확인하면 되는데요, 대표적으로 QRS 파형의 진폭 증가 , ST 분절 변화, T파 역위 등이 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;예를 들어 좌심실 비대시 QRS 복합체의 폭이 넓어지고 진폭이 증가합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래 그림에서&lt;b&gt; LVH가 의미하는게 좌심실비대(left ventricular hypertorphy, LVH)&lt;/b&gt; 입니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;358&quot; data-origin-height=&quot;400&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/CBKjC/btsHcq5i488/Gk6gwyq0yq5cKVnjOuEyr1/img.gif&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/CBKjC/btsHcq5i488/Gk6gwyq0yq5cKVnjOuEyr1/img.gif&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/CBKjC/btsHcq5i488/Gk6gwyq0yq5cKVnjOuEyr1/img.gif&quot; srcset=&quot;https://blog.kakaocdn.net/dn/CBKjC/btsHcq5i488/Gk6gwyq0yq5cKVnjOuEyr1/img.gif&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;358&quot; height=&quot;400&quot; data-origin-width=&quot;358&quot; data-origin-height=&quot;400&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드 II :&amp;nbsp;&lt;/b&gt;심장의 수직 축을 따라 하향 전기적 활동을 포착하고 주로 좌심실과 우심실을 연결하는 신호에 민감합니다. 주로 &lt;b&gt;심방세동이나 심실조기수축과 같은 부정맥의 확인, 심방 및 심실 활동&lt;/b&gt;을 보여줍니다. 파형으로 확인해보면 ST분절 상승(elevation), 병적 Q파, P파 형태 변화 등이 있습니다. 아래의 그림은 심방세동이 나타나는 환자의 ECG 파형과 Normal한 상태의 ECG 파형을 비교한 것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;720&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/wRUII/btsHgaUfNCM/Wuj5i7j3a13oVtUEkN50MK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/wRUII/btsHgaUfNCM/Wuj5i7j3a13oVtUEkN50MK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/wRUII/btsHgaUfNCM/Wuj5i7j3a13oVtUEkN50MK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FwRUII%2FbtsHgaUfNCM%2FWuj5i7j3a13oVtUEkN50MK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;537&quot; height=&quot;302&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;720&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드 III :&lt;/b&gt; 심장의 좌측 하향 부위의 전기적 활동을 포착합니다. 해당 리드는 하부벽 심근경색에서 특히 ST 구간의 상승을 보여주며, 좌심실 하단 부위에 영향을 받는 경우에 활동 변화가 포착됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;390&quot; data-origin-height=&quot;280&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/rKXPa/btsHgdQ1KLS/4f6sgBQKhxZgwh2iHLFFkK/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/rKXPa/btsHgdQ1KLS/4f6sgBQKhxZgwh2iHLFFkK/img.webp&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/rKXPa/btsHgdQ1KLS/4f6sgBQKhxZgwh2iHLFFkK/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FrKXPa%2FbtsHgdQ1KLS%2F4f6sgBQKhxZgwh2iHLFFkK%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;390&quot; height=&quot;280&quot; data-origin-width=&quot;390&quot; data-origin-height=&quot;280&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;증폭된 유니폴라 임상 리드 ( Augmented Limb Leads )&amp;nbsp;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;570&quot; data-origin-height=&quot;903&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/rCIPr/btsHgmUvisr/6Ury20b6fOcEtnRa68yUUk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/rCIPr/btsHgmUvisr/6Ury20b6fOcEtnRa68yUUk/img.png&quot; data-alt=&quot;출처 :&amp;amp;nbsp;https://cvphysiology.com/arrhythmias/a013b&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/rCIPr/btsHgmUvisr/6Ury20b6fOcEtnRa68yUUk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FrCIPr%2FbtsHgmUvisr%2F6Ury20b6fOcEtnRa68yUUk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;304&quot; height=&quot;482&quot; data-origin-width=&quot;570&quot; data-origin-height=&quot;903&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 :&amp;nbsp;https://cvphysiology.com/arrhythmias/a013b&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;aVR&lt;/b&gt;: 오른쪽 팔을 기준으로 측정하며, 심장의 오른쪽 상부를 보여줍니다. 대부분의 파형이 음의 방향으로 나타납니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;즉, P파, QRS 복합체, T파가 대체로 음성입니다. 이&amp;nbsp;리드는&amp;nbsp;심장의&amp;nbsp;오른쪽&amp;nbsp;상단부를&amp;nbsp;반영하며,&amp;nbsp;일반적으로&amp;nbsp;다른&amp;nbsp;리드와는&amp;nbsp;대조적인&amp;nbsp;파형을&amp;nbsp;보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;aVL&lt;/b&gt;: 왼쪽 팔을 기준으로 측정하며, 심장의 왼쪽 상부를 보여줍니다. R파가 비교적 높고, Q파는 작게 나타날 수 있습니다. 심장의&amp;nbsp;좌측&amp;nbsp;상단부를&amp;nbsp;반영하며,&amp;nbsp;좌심실&amp;nbsp;측벽의&amp;nbsp;활동을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;aVF&lt;/b&gt;: 왼쪽 다리를 기준으로 측정하며, 심장의 하부를 보여줍니다. QRS 복합체에서 R파가 상대적으로 높습니다. 이&amp;nbsp;리드는&amp;nbsp;심장의&amp;nbsp;하단부를&amp;nbsp;강조하며,&amp;nbsp;대체로&amp;nbsp;양의&amp;nbsp;방향의&amp;nbsp;파형을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;흉부 리드 ( Precordial Leads )&amp;nbsp;&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;400&quot; data-origin-height=&quot;359&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cQZ6z1/btsHg8axTNf/79lRKuXJMWy3Z0moyf9pHK/img.gif&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cQZ6z1/btsHg8axTNf/79lRKuXJMWy3Z0moyf9pHK/img.gif&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cQZ6z1/btsHg8axTNf/79lRKuXJMWy3Z0moyf9pHK/img.gif&quot; srcset=&quot;https://blog.kakaocdn.net/dn/cQZ6z1/btsHg8axTNf/79lRKuXJMWy3Z0moyf9pHK/img.gif&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;400&quot; height=&quot;359&quot; data-origin-width=&quot;400&quot; data-origin-height=&quot;359&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;V1&lt;/b&gt;:&amp;nbsp;4번째&amp;nbsp;늑골&amp;nbsp;우측&amp;nbsp;흉골&amp;nbsp;가장자리에&amp;nbsp;위치합니다.&amp;nbsp;주로&amp;nbsp;우심실의&amp;nbsp;전방&amp;nbsp;부위를&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;V2&lt;/b&gt;:&amp;nbsp;4번째&amp;nbsp;늑골&amp;nbsp;좌측&amp;nbsp;흉골&amp;nbsp;가장자리에&amp;nbsp;위치합니다.&amp;nbsp;우심실의&amp;nbsp;전방을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;리드 V1, V2 에서는 우심실 및 심실중격 ( right ventricular and septal ) 에 영향을 줍니다. 우심실 비대, 우각차단, 브루가다 증후군 등 진단에 유용합니다. 이걸 확인하려면 ST 분절 상승 ( 브루가다 증후군 ), QRS 파형 진폭 증가 등이 있습니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;V3&lt;/b&gt;:&amp;nbsp;V2와&amp;nbsp;V4&amp;nbsp;사이에&amp;nbsp;위치합니다.&amp;nbsp;심장의&amp;nbsp;중앙&amp;nbsp;부위,&amp;nbsp;특히&amp;nbsp;좌심실의&amp;nbsp;전방을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;V4&lt;/b&gt;:&amp;nbsp;5번째&amp;nbsp;늑골&amp;nbsp;중앙&amp;nbsp;쇄골선에서&amp;nbsp;위치합니다.&amp;nbsp;주로&amp;nbsp;좌심실의&amp;nbsp;중앙을&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;리드 V3, V4 에서는 좌심실 전벽( anterior wall )에 영향을 주고 전벽 심근경색, 좌각차단 등을 반영합니다. 이를 확인하기 위해서는 ST 분절 상승, 병적 Q파 QRS 파형 진폭 감소 등을 통해 확인할 수 있습니다.&amp;nbsp;&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;V5&lt;/b&gt;:&amp;nbsp;5번째&amp;nbsp;늑골&amp;nbsp;앞쪽&amp;nbsp;겨드랑이선에서&amp;nbsp;위치합니다.&amp;nbsp;좌심실의&amp;nbsp;측면&amp;nbsp;부위를&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;V6&lt;/b&gt;:&amp;nbsp;5번째&amp;nbsp;늑골&amp;nbsp;중간&amp;nbsp;겨드랑이선에서&amp;nbsp;위치합니다.&amp;nbsp;좌심실의&amp;nbsp;측면&amp;nbsp;부위를&amp;nbsp;보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Summary&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심전도(ECG)에서&amp;nbsp;가장&amp;nbsp;흔히&amp;nbsp;사용되는&amp;nbsp;리드는&amp;nbsp;상황과&amp;nbsp;목적에&amp;nbsp;따라&amp;nbsp;다르지만,&amp;nbsp;일반적으로&amp;nbsp;리드&amp;nbsp;II가&amp;nbsp;가장&amp;nbsp;널리&amp;nbsp;사용됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;리드&amp;nbsp;II는&amp;nbsp;오른쪽&amp;nbsp;팔(음극)과&amp;nbsp;왼쪽&amp;nbsp;다리(양극)&amp;nbsp;사이의&amp;nbsp;전기적&amp;nbsp;활동을&amp;nbsp;측정&lt;/b&gt;합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이&amp;nbsp;리드는&amp;nbsp;심장의&amp;nbsp;전기적&amp;nbsp;축이&amp;nbsp;자연스럽게&amp;nbsp;아래쪽으로&amp;nbsp;향하고,&amp;nbsp;심장의&amp;nbsp;주&amp;nbsp;전기적&amp;nbsp;활동을&amp;nbsp;잘&amp;nbsp;포착할&amp;nbsp;수&amp;nbsp;있기&amp;nbsp;때문에&amp;nbsp;특히&amp;nbsp;유용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;심장&amp;nbsp;모니터링&lt;/b&gt;:&amp;nbsp;병원의&amp;nbsp;심장&amp;nbsp;모니터링&amp;nbsp;시스템에서&amp;nbsp;리드&amp;nbsp;II는&amp;nbsp;종종&amp;nbsp;기본&amp;nbsp;리드로&amp;nbsp;사용되어&amp;nbsp;지속적인&amp;nbsp;심장&amp;nbsp;모니터링을&amp;nbsp;제공합니다.&amp;nbsp;심방과&amp;nbsp;심실의&amp;nbsp;활동을&amp;nbsp;명확히&amp;nbsp;보여주기&amp;nbsp;때문에&amp;nbsp;심장의&amp;nbsp;기본&amp;nbsp;리듬과&amp;nbsp;어떠한&amp;nbsp;부정맥을&amp;nbsp;감지하는&amp;nbsp;데&amp;nbsp;이상적입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;부정맥&amp;nbsp;진단&lt;/b&gt;:&amp;nbsp;리드&amp;nbsp;II는&amp;nbsp;심장의&amp;nbsp;전기적&amp;nbsp;축과&amp;nbsp;일치하여,&amp;nbsp;특히&amp;nbsp;심방에서&amp;nbsp;발생하는&amp;nbsp;전기적&amp;nbsp;활동을&amp;nbsp;분명하게&amp;nbsp;보여줍니다.&amp;nbsp;이는&amp;nbsp;심방&amp;nbsp;세동이나&amp;nbsp;심방&amp;nbsp;조동&amp;nbsp;같은&amp;nbsp;부정맥의&amp;nbsp;진단에&amp;nbsp;매우&amp;nbsp;유용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;&lt;b&gt;휴대용&amp;nbsp;ECG&amp;nbsp;기기&lt;/b&gt;:&amp;nbsp;휴대용&amp;nbsp;ECG&amp;nbsp;장치나&amp;nbsp;일부&amp;nbsp;스마트&amp;nbsp;워치에서&amp;nbsp;간편하게&amp;nbsp;측정할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;심전도&amp;nbsp;파형으로도&amp;nbsp;리드&amp;nbsp;II가&amp;nbsp;자주&amp;nbsp;사용됩니다.&amp;nbsp;사용자가&amp;nbsp;간편하게&amp;nbsp;두&amp;nbsp;손이나&amp;nbsp;한&amp;nbsp;손과&amp;nbsp;한&amp;nbsp;다리를&amp;nbsp;이용하여&amp;nbsp;측정할&amp;nbsp;수&amp;nbsp;있기&amp;nbsp;때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;리드&amp;nbsp;II는&amp;nbsp;심장의&amp;nbsp;전기적&amp;nbsp;활동을&amp;nbsp;종합적으로&amp;nbsp;평가하는&amp;nbsp;데&amp;nbsp;도움을&amp;nbsp;주며,&amp;nbsp;다양한&amp;nbsp;임상&amp;nbsp;상황에서&amp;nbsp;광범위하게&amp;nbsp;활용됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그래서 ECG를 처음 배우는 의료 학생이나 전문가들에게 기본적으로 가장 중요한 리드로 간주됩니다 :)&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&lt;br /&gt;&lt;br /&gt;&lt;br /&gt;&lt;br /&gt;&lt;br /&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <category>Medical</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/113</guid>
      <comments>https://minyoungxi.tistory.com/113#entry113comment</comments>
      <pubDate>Wed, 8 May 2024 12:30:54 +0900</pubDate>
    </item>
    <item>
      <title>[Deep Dive Python] List 와 Dictionary 를 자세히 알아볼까? - 1</title>
      <link>https://minyoungxi.tistory.com/112</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;리스트와 딕셔너리&amp;nbsp;&lt;/h2&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;695&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/vWzP1/btsHgV97IQf/ycKVPBNXUkQo3rYoQ9bs2K/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/vWzP1/btsHgV97IQf/ycKVPBNXUkQo3rYoQ9bs2K/img.webp&quot; data-alt=&quot;출처 : scaler&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/vWzP1/btsHgV97IQf/ycKVPBNXUkQo3rYoQ9bs2K/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FvWzP1%2FbtsHgV97IQf%2FycKVPBNXUkQo3rYoQ9bs2K%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1280&quot; height=&quot;695&quot; data-origin-width=&quot;1280&quot; data-origin-height=&quot;695&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 : scaler&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Python에서&amp;nbsp;반복적인&amp;nbsp;작업을&amp;nbsp;자동화&amp;nbsp;하고자&amp;nbsp;만들어진&amp;nbsp;가장&amp;nbsp;일반적인&amp;nbsp;방법은&amp;nbsp;리스트(list)타입을&amp;nbsp;쓰는&amp;nbsp;것입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;리스트는&amp;nbsp;아주&amp;nbsp;간편하며&amp;nbsp;다양한&amp;nbsp;문제를&amp;nbsp;해결하는&amp;nbsp;데&amp;nbsp;사용할&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;리스트를&amp;nbsp;자연스럽게&amp;nbsp;보완할&amp;nbsp;수&amp;nbsp;있는&amp;nbsp;타입이&amp;nbsp;딕셔너리(dict)타입&amp;nbsp;입니다.&amp;nbsp;딕셔너리&amp;nbsp;타입은&amp;nbsp;검색에&amp;nbsp;사용할&amp;nbsp;키(key)와&amp;nbsp;키에&amp;nbsp;연관된&amp;nbsp;값(value)를&amp;nbsp;저장합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;딕셔너리는(분할상환&amp;nbsp;복잡도로)&amp;nbsp;상수&amp;nbsp;시간에&amp;nbsp;원소를&amp;nbsp;삽입하고&amp;nbsp;찾을&amp;nbsp;수&amp;nbsp;있습니다.&amp;nbsp;따라서&amp;nbsp;동적인&amp;nbsp;정보를&amp;nbsp;관리하는&amp;nbsp;데는&amp;nbsp;딕셔너리가&amp;nbsp;가장&amp;nbsp;이상적이죠&amp;nbsp;!&amp;nbsp;파이썬은&amp;nbsp;리스트와&amp;nbsp;딕셔너리를&amp;nbsp;다룰&amp;nbsp;때&amp;nbsp;가독성을&amp;nbsp;좋게&amp;nbsp;하고&amp;nbsp;기능을&amp;nbsp;확장해주는&amp;nbsp;특별한&amp;nbsp;구문과&amp;nbsp;내장&amp;nbsp;모듈을&amp;nbsp;제공합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이로 인해 다른 언어가 제공하는 단순 배열, 벡터, 해시 테이블 타입보다 훨씬 더 편리하게 딕셔너리와 해시 테이블을 쓸 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;시퀀스를 슬라이싱 하는 방법 !&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;641&quot; data-origin-height=&quot;203&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cRpKNl/btsHhtr0v0W/HqTwKtMPEYnIFyAc3wzVg1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cRpKNl/btsHhtr0v0W/HqTwKtMPEYnIFyAc3wzVg1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cRpKNl/btsHhtr0v0W/HqTwKtMPEYnIFyAc3wzVg1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcRpKNl%2FbtsHhtr0v0W%2FHqTwKtMPEYnIFyAc3wzVg1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;641&quot; height=&quot;203&quot; data-origin-width=&quot;641&quot; data-origin-height=&quot;203&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;파이썬은 시퀀스를 여러 조각으로 나누는 슬라이싱(slicing)구문이 있습니다. 슬라이싱을 사용하면 최소한의 노력으로 시퀀스에 들어 있는 아이템의 부분집합에 쉽게 접근할 수 있습니다. 어떤 파이썬 클래스에서도 슬라이싱을 추가할 수 있죠.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;`__getitem__` 과 `__setitem__` 특별 메서드를 구현하면 됩니다. 슬라이싱 구문의 기본 형태는 모두 알다시피 리스트[시작:끝] 이렇게 작성합니다. 여기서 시작 인덱스에 있는 원소는 슬라이스에 포함되지만, 끝 인덱스에 있는 원소는 포함되지 않습니다 !&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715132836344&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;a = ['a','b','c','d','e','f','g','h']

print(&quot;가운데 2개:&quot;, a[3:5])    
print(&quot;마지막을 제외한 나머지:&quot;, a[1:7])&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;gt;&amp;gt;&amp;gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;가운데 2개: ['d', 'e'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;마지막을 제외한 나머지: ['b', 'c', 'd', 'e', 'f', 'g']&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;리스트의&amp;nbsp;맨&amp;nbsp;앞부터&amp;nbsp;슬라이싱할&amp;nbsp;때는&amp;nbsp;시각적&amp;nbsp;잡음을&amp;nbsp;없애기&amp;nbsp;위해&amp;nbsp;0을&amp;nbsp;생략해야&amp;nbsp;합니다.&amp;nbsp;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715132946136&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;assert a[:5] == a[0:5]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;리스트의 맨 앞부터 슬라이싱할 때는 시각적 잡음을 없애기 위해 0을 생략합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133511707&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;a[:] # ['a','b','c','d','e','f','g','h']
a[:5] # ['a','b','c','d','e']   
a[:-1] # ['a','b','c','d','e','f','g']
a[4:] # ['e','f','g','h']   
a[-3:] # ['f','g','h']
a[2:5] # ['c','d','e']
a[2:-1] # ['c','d','e','f','g']
a[-3:-1] # ['f','g']&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위의&amp;nbsp;슬라이싱에는&amp;nbsp;놀랄&amp;nbsp;만한&amp;nbsp;부분이&amp;nbsp;없습니다.&amp;nbsp;저도&amp;nbsp;위의&amp;nbsp;슬라이싱을&amp;nbsp;가장&amp;nbsp;자주&amp;nbsp;사용합니다&amp;nbsp;:)&amp;nbsp;&lt;br /&gt;&lt;br /&gt;슬라이싱할&amp;nbsp;때&amp;nbsp;리스트의&amp;nbsp;인덱스&amp;nbsp;범위를&amp;nbsp;넘어가는&amp;nbsp;시작과&amp;nbsp;끝&amp;nbsp;인덱스는&amp;nbsp;조용히&amp;nbsp;무시됩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;이런&amp;nbsp;동작&amp;nbsp;방식으로&amp;nbsp;인해&amp;nbsp;코드에서&amp;nbsp;입력&amp;nbsp;시퀀스를&amp;nbsp;다룰&amp;nbsp;때&amp;nbsp;원하는&amp;nbsp;최대&amp;nbsp;길이를&amp;nbsp;쉽게&amp;nbsp;지정할&amp;nbsp;수&amp;nbsp;있습니다&amp;nbsp;!&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133535957&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;first_twenty_items = a[:5]  
last_twenty_items = a[-5:]&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;리스트를&amp;nbsp;슬라이싱한&amp;nbsp;결과는&amp;nbsp;완전히&amp;nbsp;새로운&amp;nbsp;리스트이며,&amp;nbsp;원래&amp;nbsp;리스트에&amp;nbsp;대한&amp;nbsp;참조는&amp;nbsp;그대로&amp;nbsp;유지됩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;슬라이싱한&amp;nbsp;결과로&amp;nbsp;얻은&amp;nbsp;리스트를&amp;nbsp;변경해도&amp;nbsp;원래&amp;nbsp;리스트는&amp;nbsp;바뀌지&amp;nbsp;않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133556957&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;b = a[3:]
print(&quot;이전:&quot;, b)

b[1] = 99   
print(&quot;이후:&quot;, b)   
print(&quot;원본:&quot;, a)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;gt;&amp;gt;&amp;gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이전: ['d', 'e', 'f', 'g', 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이후: ['d', 99, 'f', 'g', 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;원본: ['a', 'b', 'c', 'd', 'e', 'f', 'g', 'h']&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;대입에&amp;nbsp;슬라이스를&amp;nbsp;사용하면&amp;nbsp;원본&amp;nbsp;리스트에서&amp;nbsp;지정한&amp;nbsp;범위에&amp;nbsp;들어&amp;nbsp;있는&amp;nbsp;원소를&amp;nbsp;변경합니다.&lt;br /&gt;&lt;br /&gt;언패킹&amp;nbsp;대입(예를&amp;nbsp;들면,&amp;nbsp;a,b&amp;nbsp;=&amp;nbsp;c[:2])과&amp;nbsp;달리&amp;nbsp;슬라이스&amp;nbsp;대입에서는&amp;nbsp;슬라이스와&amp;nbsp;대입되는&amp;nbsp;리스트의&amp;nbsp;길이가&amp;nbsp;같을&amp;nbsp;필요가&amp;nbsp;없습니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;대입된&amp;nbsp;슬라이스&amp;nbsp;이전이나&amp;nbsp;이후에&amp;nbsp;있던&amp;nbsp;원소들은&amp;nbsp;그대로&amp;nbsp;유지됩니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;다음&amp;nbsp;코드에서는&amp;nbsp;리스트에&amp;nbsp;지정한&amp;nbsp;슬라이스&amp;nbsp;길이보다&amp;nbsp;대입되는&amp;nbsp;배열의&amp;nbsp;길이가&amp;nbsp;더&amp;nbsp;짧기&amp;nbsp;때문에&amp;nbsp;리스트가&amp;nbsp;줄어듭니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133598438&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;print('이전', a)
a[2:7] = [99, 22, 14]
print('이후', a)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;gt;&amp;gt;&amp;gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이전 ['a', 'b', 'c', 'd', 'e', 'f', 'g', 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이후 ['a', 'b', 99, 22, 14, 'h']&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;다음&amp;nbsp;코드에서는&amp;nbsp;리스트에&amp;nbsp;지정한&amp;nbsp;슬라이스&amp;nbsp;길이보다&amp;nbsp;대입되는&amp;nbsp;배열의&amp;nbsp;길이가&amp;nbsp;더&amp;nbsp;길기&amp;nbsp;때문에&amp;nbsp;리스트가&amp;nbsp;늘어납니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133645636&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;print('이전', a)
a[2:3] = [47, 11]   
print('이후', a)&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;gt;&amp;gt;&amp;gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이전 ['a', 'b', 99, 22, 14, 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이후 ['a', 'b', 47, 11, 22, 14, 'h']&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;슬라이싱에서 시작과 끝 인덱스를 모두 생략하면 원래 리스트를 복사한 새 리스트를 얻게됩니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133696550&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;b = a[:]
assert b == a and b is not a&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;시작과&amp;nbsp;끝&amp;nbsp;인덱스가&amp;nbsp;없는&amp;nbsp;슬라이스에&amp;nbsp;대입하면(새&amp;nbsp;리스트를만들어내는&amp;nbsp;대신)&amp;nbsp;슬라이스가&amp;nbsp;참조하는&amp;nbsp;리스트의&amp;nbsp;내용을&amp;nbsp;대입하는(연산자&amp;nbsp;오른쪽에&amp;nbsp;있는)&amp;nbsp;리스트의&amp;nbsp;복사본으로&amp;nbsp;덮어&amp;nbsp;쓰게&amp;nbsp;됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715133736817&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;b = a
print('이전', a)
print('이전', b)    

a[:] = [101, 102, 103]  

assert a is b  # 여전히 같은 리스트 객체
print('이후', a)    # 새로운 내용이 들어있음
print('이후', b)    # 동일한 리스트 객체를 참조하고 있음&lt;/code&gt;&lt;/pre&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;gt;&amp;gt;&amp;gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이전 ['a', 'b', 47, 11, 22, 14, 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이전 ['a', 'b', 47, 11, 22, 14, 'h'] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이후 [101, 102, 103] &lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #cccccc; text-align: start;&quot;&gt;이후 [101, 102, 103]&lt;/span&gt;&lt;/p&gt;
&lt;div style=&quot;background-color: #1f1f1f; color: #cccccc;&quot;&gt;
&lt;div&gt;&amp;nbsp;&lt;/div&gt;
&lt;/div&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Summary&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;br /&gt;-&amp;nbsp;슬라이싱은&amp;nbsp;간결하게&amp;nbsp;하자.&amp;nbsp;(시작&amp;nbsp;인덱스에&amp;nbsp;0을&amp;nbsp;넣거나&amp;nbsp;끝&amp;nbsp;인덱스에&amp;nbsp;시퀀스&amp;nbsp;길이를&amp;nbsp;넣지&amp;nbsp;말자)&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;슬라이싱은&amp;nbsp;범위를&amp;nbsp;넘어가는&amp;nbsp;시작&amp;nbsp;인덱스나&amp;nbsp;끝&amp;nbsp;인덱스도&amp;nbsp;허용한다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;-&amp;nbsp;리스트&amp;nbsp;슬라이스에&amp;nbsp;대입하면&amp;nbsp;원래&amp;nbsp;시퀀스에서&amp;nbsp;슬라이스가&amp;nbsp;가리키는&amp;nbsp;부분을&amp;nbsp;대입&amp;nbsp;연산자&amp;nbsp;오른쪽에&amp;nbsp;있는&amp;nbsp;시퀀스로&amp;nbsp;대치한다.&amp;nbsp;이때&amp;nbsp;슬라이스와&amp;nbsp;대치되는&amp;nbsp;시퀀스의&amp;nbsp;길이가&amp;nbsp;달라도&amp;nbsp;된다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Python 추가 문제 팁&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;아래의 코드는 Python에서 map() 함수와 lambda 함수를 사용하여 리스트의 각 요소를 제곱하는 예제입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;squared_numbers 에서 map() 함수를 사용하여 numbers 리스트의 각 요소에 함수를 적용합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;map() 함수와 lambda 함수를 사용하면 리스트의 각 요소에 함수를 적용할 때 간결하고 읽기 쉬운 코드를 작성할 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 예제에서는 제곱 연산을 수행했지만, lambda 함수를 수정하여 다른 연산을 적용할 수도 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;pre id=&quot;code_1715134404581&quot; class=&quot;python&quot; data-ke-language=&quot;python&quot; data-ke-type=&quot;codeblock&quot;&gt;&lt;code&gt;numbers = [1,2,3,4,5]

squared_numbers = list(map(lambda x: x**2, numbers))    

print(squared_numbers)&lt;/code&gt;&lt;/pre&gt;</description>
      <category>Data science/LLM</category>
      <category>Python</category>
      <category>딕셔너리</category>
      <category>리스트</category>
      <category>파이썬</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/112</guid>
      <comments>https://minyoungxi.tistory.com/112#entry112comment</comments>
      <pubDate>Wed, 8 May 2024 11:24:16 +0900</pubDate>
    </item>
    <item>
      <title>[Medical Series : Can you feel my Heartbeat? ] - 심장에 전기가 흐른다구요 !? 심전도(Electrocardiogram)에 대해서 알아보자</title>
      <link>https://minyoungxi.tistory.com/111</link>
      <description>&lt;h2 data-ke-size=&quot;size26&quot;&gt;심장의 전기적 활동&amp;nbsp;&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심장에는 극히 미량의 전기를 리드미컬하게 분명히 ! 일으키고 있습니다. 그 리듬은 심장의 규칙적인 움직임의 원친이 되고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것을 심장의 &quot;전기적 활동(electical activity)라고 합니다. 이 전기적 활동을 받아 심근의 수축이나 이완과 같은 &quot;기계적 활동&quot;이 일어나는 것이죠. 그러나 이 전기적 활동은 매우 미량의 전기로 일어나기 때문에 그 상태를 알기 위해서는 심장의 극히 작은 전기적 활동을 포착하여 체외의 증폭 장치로 증폭해야 확인할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;각 심근세포의 전기적 활동&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심장은 심근세포가 많이 모여서 이루어진 장기입니다. 따라서, 심장 전체를 보기 전에 우선 1개의 심근세포에서는 어떠한 전기적 활동이 일어나는지 관찰해봅시다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;697&quot; data-origin-height=&quot;157&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bjpvWD/btsGY5GgfAf/Km8lPmcTr8OlMmQt1XABIK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bjpvWD/btsGY5GgfAf/Km8lPmcTr8OlMmQt1XABIK/img.png&quot; data-alt=&quot;출처 :&amp;amp;nbsp;https://m.blog.naver.com/corean8839/221235849695&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bjpvWD/btsGY5GgfAf/Km8lPmcTr8OlMmQt1XABIK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbjpvWD%2FbtsGY5GgfAf%2FKm8lPmcTr8OlMmQt1XABIK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;697&quot; height=&quot;157&quot; data-origin-width=&quot;697&quot; data-origin-height=&quot;157&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 :&amp;nbsp;https://m.blog.naver.com/corean8839/221235849695&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심근세포의 전기적 활동에는 칼륨이온, 나트륨이온, 칼슘이온이 크게 관여하고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심근세포가 &lt;b&gt;&quot;정지상태&quot;&lt;/b&gt;에 있을 때 세포내외의 이온 상태를 보면 세포내에는 세포외 농도의 약 30배나 되는 &lt;b&gt;칼륨이온(K+)&lt;/b&gt;이 있고 세포외에는 세포내 농도의 약 10배가 되는 &lt;b&gt;나트륨이온(NA+)&lt;/b&gt;이 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 &lt;b&gt;칼슘이온(Ca2+)&lt;/b&gt;은 세포내보다는 세포외에 많은 상태입니다. 그러나 이들 세포내외의 이온은 세포막을 사이에 두고 균형을 이루고 있으며, 그 전기적 상태는 세포막의 바로 안쪽이 마이너스로, 바깥쪽이 플러스로 하전되어 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 상태를 전기적으로 &lt;b&gt;&quot;분극되어 있다&quot;&lt;/b&gt;라고 표현합니다.&amp;nbsp;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;칼륨이온(K+):&lt;/b&gt;&lt;br /&gt;세포 내에 가장 풍부한 양이온입니다. 세포막 전위를 결정하는 데 중요한 역할을 합니다. 칼륨 채널을 통해 세포막을 가로질러 이동하며, 이는 활동 전위의 재분극 단계에서 중요합니다. 세포 내 효소 기능, 단백질 합성 및 세포 용적 조절에 관여합니다. &lt;br /&gt;&lt;br /&gt;&lt;b&gt;나트륨이온(Na+):&lt;/b&gt;&lt;br /&gt;세포 외액에 가장 풍부한 양이온입니다. 나트륨-칼륨 펌프(Na+/K+ ATPase)에 의해 능동적으로 세포 밖으로 이동합니다. 활동 전위의 상승 단계(탈분극)에서 중요한 역할을 합니다. 세포막을 가로질러 다양한 물질의 수송에 관여하는 공동수송체(co-transporter)와 교환수송체(exchanger)의 기능에 필수적입니다. &lt;br /&gt;&lt;br /&gt;&lt;b&gt;칼슘이온(Ca2+):&lt;/b&gt;&lt;br /&gt;세포 외액에 더 높은 농도로 존재합니다. 근육 수축, 신경 전달물질 방출 및 세포 내 신호 전달에 매우 중요한 역할을 합니다. 심근세포에서 칼슘은 근소포체(sarcoplasmic reticulum)에 저장되어 있다가 활동 전위 동안 방출되어 수축을 유발합니다. 칼슘 채널과 교환수송체를 통해 세포막을 가로질러 이동합니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2450&quot; data-origin-height=&quot;1400&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cU2u4r/btsG1fOegVR/r02vSSSnfMpU55zvNhzT01/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cU2u4r/btsG1fOegVR/r02vSSSnfMpU55zvNhzT01/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cU2u4r/btsG1fOegVR/r02vSSSnfMpU55zvNhzT01/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcU2u4r%2FbtsG1fOegVR%2Fr02vSSSnfMpU55zvNhzT01%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;631&quot; height=&quot;361&quot; data-origin-width=&quot;2450&quot; data-origin-height=&quot;1400&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 정지상태일 때 자극이 가해지면(전기적 흥분이 더해지면) 세포막의 투과성에 변화가 생겨 이온의 이동이 일어납니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;우선, 세포외의 나트륨이온이 급속하게 세포내로 밀려들어갑니다. 이 때 세포내 전위는 일시적으로 +25mV 정도로 상승하는데 이것을 &lt;b&gt;&quot;탈분극(depolarization)&quot;&lt;/b&gt;이라고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;나트륨이온이 다 밀려들어가면 세포내 전위는 0mV 정도에서 안정되고 이어서 칼슘이온이 천천히 세포외에서 세포내로 들어갑니다. 그 다음에는 지금까지 세포내에 있던 칼륨이온이 세포외로 나오게됩니다. 그리고 세포내 전위는 다시 -85mV 정도로 다시 돌아가는데 이것을&lt;b&gt; &quot;재분극(repolarization)&quot;&lt;/b&gt;이라고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이렇게 되면 나트륨이온이나 칼슘이온이 세포내로 들어오기만 하고 칼륨이온은 세포외로 나가기만 하는 상태가 되어 버리기 때문에 다음의 단계에서 각각의 이온을 본래의 상태로 되돌리려는 세포막펌프가 작용하여 다시 정지상태가 되는 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style3&quot;&gt;1. 나트륨이온이 세포내로 밀려들어간다.&lt;br /&gt;2. 칼슘이온이 천천히 세포내로 들어간다.&lt;br /&gt;3. 칼륨이온이 세포외로 나온다.&lt;br /&gt;4. 세포막펌프의 작용으로 본래의 상태로 돌아가 정지상태가 된다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;심전도의 기본 파형과 파형의 의미&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;320&quot; data-origin-height=&quot;326&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/BVTFH/btsGY7xfuE8/144ivtURDejayx3ElfOhX0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/BVTFH/btsGY7xfuE8/144ivtURDejayx3ElfOhX0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/BVTFH/btsGY7xfuE8/144ivtURDejayx3ElfOhX0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FBVTFH%2FbtsGY7xfuE8%2F144ivtURDejayx3ElfOhX0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;320&quot; height=&quot;326&quot; data-origin-width=&quot;320&quot; data-origin-height=&quot;326&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;P파 :&amp;nbsp;&lt;/b&gt;심장의 전기적 활동이 시작되고 가장 먼저 나타나는 파로서, 양성(위쪽)의 작은 봉우리 모양이 'P파'라고 부릅니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;P파는 심방의 전기적 흥분을 의미합니다. 정확하게는 먼저, 우심방의 흥분이 시작되고 바로 다음으로 좌심방이 흥분하는데, 보통의 심전도에서는 1개의 봉우리로 밖에 보이지 않습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;-&amp;gt; 정상 P파는 폭이 0.09~0.11초, 높이가 2.5mm 이하입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;QRS 군집 :&amp;nbsp;&lt;/b&gt; P파가 끝나고 조금 지나면 이번에는 음성(아래 방향)의 작은 움직임이 보이는데, 이 파를 &lt;b&gt;&quot;Q파&quot;&amp;nbsp;&lt;/b&gt;라고 합니다. 그리고 곧바로 높고 날카로운 양성의 움직임으로 바뀌는데 이를 &lt;b&gt;&quot;R파&quot;&lt;/b&gt;라고 합니다. R파는 재빠르게 기선으로 되돌아와 다시 음성의 움직임을 보이는데 이것을 &lt;b&gt;&quot;S파&quot;&amp;nbsp;&lt;/b&gt;라고 합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Q R S 각각의 파형은 떨어지지 않고 항상 1개의 움직임으로 보이기 때문에 &lt;b&gt;&quot;QRS군&quot;&lt;/b&gt;으로 통합해서 다루고 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왜냐하면 이 QRS군은 심실의 &lt;b&gt;탈분극(depolarization, 탈분극은 신경세포나 근육세포에서 일어나는 중요한 생리학적 과정입니다)&lt;/b&gt;을 나타내기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;&lt;b&gt;세포막 전위(Membrane potential):&lt;/b&gt; 세포막 내외부의 이온 농도 차이로 인해 세포막에는 전위차가 존재합니다. 보통 세포 내부는 음전하를, 외부는 양전하를 띱니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;안정 상태(Resting state)&lt;/b&gt;: 자극이 없을 때, 세포는 안정 상태를 유지합니다. 이때 세포막 전위를 &lt;b&gt;휴지 전위&lt;/b&gt;라고 합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;탈분극 자극(Depolarizing stimulus):&lt;/b&gt; 세포에 특정 자극이 가해지면, 세포막의 나트륨 통로가 열리고 나트륨 이온이 세포 내로 유입됩니다. 이로 인해 세포 내부의 전위가 점차 양전하로 변하는데, 이를 탈분극이라고 합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;활동 전위(Action potential):&lt;/b&gt; 탈분극이 임계값에 도달하면 세포막 전위는 급격히 상승하여 일시적으로 양전하가 됩니다. 이를 활동 전위라고 하며, 신경 신호나 근육 수축을 유발합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;재분극(Repolarization):&lt;/b&gt; 활동 전위 이후, 칼륨 통로가 열리고 칼륨 이온이 세포 외부로 유출되면서 세포막 전위는 다시 음전하로 변합니다. 이를 재분극이라고 합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;과분극(Hyperpolarization):&lt;/b&gt; 재분극 과정에서 세포막 전위가 휴지 전위보다 더 낮아질 수 있는데, 이를 과분극이라고 합니다. 이후 세포막 전위는 다시 휴지 전위로 돌아옵니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;QRS군이 이와 같이 날카로운 형태를 나타내는 것은 심실의 근육에서는 자극이 매우 빨리 전달된다는 것을 의미하는 것입니다. QRS군의 폭은 정상에서는 0.10초를 넘지 않습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;높이는 기록 방법에 따라 달라지는데, 심장이 배대해지면 R파의 높이는 대체로 높아집니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;QRS군의 움직임이 끝나고 잠시 동안 거의 평탄하게 달리다가, 완만한 경사의 산이 나타납니다. 이것을 &lt;b&gt;&quot;T파&quot;&lt;/b&gt;라고 하는데 심실의 &lt;b&gt;&quot;재분극(repolarization)&quot;&lt;/b&gt;을 나타냅니다. 가끔, T파 다음에 매우 완만한 언덕과 같은 파형이 보이는 경우가 있는데 이를 &lt;b&gt;&quot;U파&quot;&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;라고 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;PR간격 또는 PQ간격 :&lt;/b&gt; 심방 탈분극(심방의 전기적 활성화)을 나타내는 구간입니다. 동방결절에서 생성된 전기 자극이 심방을 통과하는 데 걸리는 시간을 반영합니다. 정상 범위는 0.12초에서 0.20초 사이입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;QT간격 :&lt;/b&gt; 심실 탈분극과 재분극을 포함하는 전체 시간을 나타냅니다. Q파의 시작부터 T파의 끝까지를 측정합니다. QT 간격은 심박수에 따라 달라지므로 보정된 QT 간격(QTc)을 사용하기도 합니다. 정상 QTc 값은 0.36초에서 0.44초 사이입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;ST 부분 :&lt;/b&gt; 심실 탈분극이 끝나고 재분극이 시작되는 구간입니다. 이 부분은 일반적으로 등전위선(isoelectric line)에 위치해야 합니다. ST 부분은 심근 상태에 관해서 매우 중요한 정보를 제공해 주는 부분입니다. 예를 들어서 심근의 혈류가 부족한 &lt;b&gt;&quot;심근허혈(myocardial ischemia)&quot;&lt;/b&gt; 상태라면 ST부분이 기선의 아랫방향으로 이동하고 심근경색이 일어나면 ST부분이 상승합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;심전도 파형과 심실의 수축, 확장과의 관계&amp;nbsp;&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;551&quot; data-origin-height=&quot;600&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cDXTCV/btsGZW9G3qv/bBg4Kal3BfcKb2O5jmk5I0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cDXTCV/btsGZW9G3qv/bBg4Kal3BfcKb2O5jmk5I0/img.jpg&quot; data-alt=&quot;출처 : 위키&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cDXTCV/btsGZW9G3qv/bBg4Kal3BfcKb2O5jmk5I0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcDXTCV%2FbtsGZW9G3qv%2FbBg4Kal3BfcKb2O5jmk5I0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;551&quot; height=&quot;600&quot; data-origin-width=&quot;551&quot; data-origin-height=&quot;600&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;출처 : 위키&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;심실이 수축되거나 확장되는 것은 심근의 수축이나 이완이라는 기계적 활동의 결과로 발생하는 움직임입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 이것은 선행된 전기적 활동에 의해 발생된 것이죠. 위의 그림을 통해 심전도 파형과 심실의 수축 및 확장의 관계에 대해서 살펴볼 수 있습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1270&quot; data-origin-height=&quot;392&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/EZjQx/btsG0cj7Wgp/Rh3QhtYeCPL20KigGIXVG0/img.gif&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/EZjQx/btsG0cj7Wgp/Rh3QhtYeCPL20KigGIXVG0/img.gif&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/EZjQx/btsG0cj7Wgp/Rh3QhtYeCPL20KigGIXVG0/img.gif&quot; srcset=&quot;https://blog.kakaocdn.net/dn/EZjQx/btsG0cj7Wgp/Rh3QhtYeCPL20KigGIXVG0/img.gif&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1270&quot; height=&quot;392&quot; data-origin-width=&quot;1270&quot; data-origin-height=&quot;392&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;심실의 수축은 QRS군의 중간부터 일어나기 시작하여 곧 대동맥판막(arotic valve)이 열리고 혈액을 보내기 시작&lt;/b&gt;하는데, T파가 끝날 무렵에 대동맥판막이 닫히고 심실의 수축기가 끝납니다. 그리고 곧 &lt;b&gt;승모판막(mitral valve)이 열리고 심실로 혈액이 유입되기 시작&lt;/b&gt;하는데, 다음의 QRS군의 중간까지가 심실의 확장기가 됩니다.&lt;/p&gt;</description>
      <category>Medical</category>
      <category>AI</category>
      <category>메디컬</category>
      <category>심전도</category>
      <category>의료도메인</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/111</guid>
      <comments>https://minyoungxi.tistory.com/111#entry111comment</comments>
      <pubDate>Sat, 27 Apr 2024 17:25:03 +0900</pubDate>
    </item>
    <item>
      <title>[논문리뷰] - DeepOnto: A Python Package for OntologyEngineering with Deep Learning</title>
      <link>https://minyoungxi.tistory.com/110</link>
      <description>&lt;h2 id=&quot;section-0&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;1. Introduction&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;1024&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bw3BhR/btsGVyOlETT/OfHsYjssbn85XAeKkrBlA0/img.webp&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bw3BhR/btsGVyOlETT/OfHsYjssbn85XAeKkrBlA0/img.webp&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bw3BhR/btsGVyOlETT/OfHsYjssbn85XAeKkrBlA0/img.webp&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbw3BhR%2FbtsGVyOlETT%2FOfHsYjssbn85XAeKkrBlA0%2Fimg.webp&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;629&quot; height=&quot;629&quot; data-origin-width=&quot;1024&quot; data-origin-height=&quot;1024&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;&lt;span style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot;&gt;논문이 다루는 task&lt;/span&gt;&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문이 다루는 task는 온톨로지 엔지니어링에 딥러닝 기술, 특히 언어 모델을 통합하는 것입니다. 온톨로지 엔지니어링은 지식 표현과 추론을 위한 핵심 분야로, 온톨로지 설계, 구축, 평가, 유지보수 등 다양한 단계를 포함합니다. 온톨로지는 인간과 기계 모두 이해할 수 있는 개념과 관계의 체계를 제공함으로써 지식 공유와 활용을 촉진합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근 거대 언어 모델의 등장으로 기존 온톨로지 엔지니어링 방식의 한계를 극복할 수 있는 가능성이 열리고 있습니다. 예를 들어, BERT 등의 언어 모델은 풍부한 맥락 정보를 활용해 개념 간 유사도를 판단할 수 있어 온톨로지 정렬이나 완성 작업에 효과적입니다. 그러나 딥러닝 모델은 그 예측 과정이 불투명하고 대량의 학습 데이터를 필요로 한다는 한계도 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;해당 task에서 기존 연구 한계점&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;기존 연구의 한계점은 크게 두 가지로 볼 수 있습니다. 첫째, OWL API나 Jena 같은 기존 온톨로지 처리 도구는 안정적이고 표준 기반이지만, 딥러닝 프레임워크와 호환되지 않아 모델 개발과 적용이 쉽지 않습니다. 대부분 Java 기반인 반면 PyTorch, Tensorflow 등 주요 딥러닝 프레임워크는 Python 기반이기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;둘째, 딥러닝 기반 온톨로지 엔지니어링을 위해서는 온톨로지의 다양한 정보를 적절한 입력 형태로 변환하는 작업이 필수적이지만, 이를 지원하는 도구가 부족한 상황입니다. 단순한 용어 추출을 넘어 논리적 표현식의 자연어 변환, 그래프 구조로의 투영 등 보다 복잡한 처리가 요구되지만 기존 도구로는 수행이 쉽지 않습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이에 본 논문에서는 &lt;b&gt;Python 기반의 통합 온톨로지 엔지니어링 패키지 DeepOnto&lt;/b&gt;를 제안합니다. DeepOnto는 OWL API 기반의 핵심 처리 모듈과 다양한 부가 모듈을 제공해 온톨로지 정보를 딥러닝에 적합한 형태로 변환하고, 이를 활용한 정렬, 완성, 언어 모델 분석 등 다양한 태스크를 지원합니다. 이를 통해 딥러닝과 온톨로지의 상호보완적 통합을 도모하고자 합니다.&lt;/p&gt;
&lt;h2 id=&quot;section-1&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;2. Related Work&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;related work 부분이 생략된 이유는 아마도 이 논문이 특정 태스크에 대한 새로운 모델을 제안하기보다는 포괄적인 온톨로지 처리 프레임워크를 소개하는 데 초점을 맞추고 있기 때문일 것 같습니다.&lt;/p&gt;
&lt;h2 id=&quot;section-2&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;3. 제안 방법론&lt;/h2&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;section-3&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Main Idea&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DeepOnto의 주요 아이디어는 온톨로지 엔지니어링을 위한 포괄적이고 유연한 Python 기반 프레임워크를 제공하는 것입니다. 특히 거대 언어 모델(LLM)과의 통합을 핵심 목표로 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;890&quot; data-origin-height=&quot;741&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/chEvCD/btsGTBrPP9N/wCD6VXkWvV1T1ENggE32pK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/chEvCD/btsGTBrPP9N/wCD6VXkWvV1T1ENggE32pK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/chEvCD/btsGTBrPP9N/wCD6VXkWvV1T1ENggE32pK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FchEvCD%2FbtsGTBrPP9N%2FwCD6VXkWvV1T1ENggE32pK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;519&quot; height=&quot;432&quot; data-origin-width=&quot;890&quot; data-origin-height=&quot;741&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 1은 DeepOnto의 전체 구조를 보여줍니다. 그 중심에는 &lt;b&gt;OWL API&lt;/b&gt; 기반의 핵심 온톨로지 처리 모듈이 있습니다. 이 모듈은 기본적인 온톨로지 입출력과 조작 기능 외에도 추론(reasoning), 정규화(normalization), 자연어 변환(verbalization), 투영(projection) 등 다양한 부가 기능을 제공합니다. 이러한 기능들은 온톨로지를 딥러닝에 적합한 형태로 변환하는 데 핵심적인 역할을 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;blockquote data-ke-style=&quot;style2&quot;&gt;OWL API는 온톨로지를 생성, 조작, 직렬화하기 위한 고수준 프로그래밍 인터페이스를 제공하는 Java 기반 오픈소스 라이브러리입니다. OWL API는 온톨로지 언어 OWL(Web Ontology Language)을 기반으로 하며, 주로 시맨틱 웹 및 지식 표현 분야에서 널리 사용됩니다.&lt;br /&gt;&lt;br /&gt;OWL 2 명세의 완전한 구현: &lt;b&gt;OWL API는 OWL 2의 모든 프로파일(EL, QL, RL)과 직렬화 문법(Functional Syntax, RDF/XML, Turtle, Manchester Syntax 등)&lt;/b&gt;을 지원합니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;온톨로지 생성 및 조작:&lt;/b&gt; 클래스, 속성, 인스턴스 등의 엔티티를 생성하고, 이들 간의 관계를 정의하는 axiom을 추가, 삭제, 수정할 수 있습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;온톨로지 추론 및 검증:&lt;/b&gt; HermiT, FaCT++, Pellet 등의 추론기와 연동해 implicit한 지식을 도출하고, 온톨로지의 일관성을 검사할 수 있습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;온톨로지 입출력 및 직렬화:&lt;/b&gt; OWL, RDF 등 다양한 형식으로 온톨로지를 읽고 쓸 수 있으며, 메모리 상의 온톨로지 객체를 직렬화할 수 있습니다.&lt;br /&gt;&lt;br /&gt;&lt;b&gt;모듈화 및 통합:&lt;/b&gt; OWL API는 모듈화된 구조를 가지며, OSGi 프레임워크를 통해 다른 시맨틱 웹 도구 및 라이브러리와 쉽게 통합될 수 있습니다.&lt;/blockquote&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;핵심 모듈 위에는 개별 엔지니어링 태스크를 수행하는 다양한 도구와 자원이 구현되어 있습니다. 현재는 주로 언어 모델 기반의 온톨로지 정렬(BERTMap 등), 온톨로지 완성(BERTSubs), 언어 모델 프로빙(OntoLAMA) 등을 지원하고 있습니다. 그러나 모듈화된 구조 덕분에 임베딩, 개념 삽입 등 새로운 기능을 쉽게 추가할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그림에서 알 수 있듯이 Ontology 클래스와 함께 다양한 하위 모듈이 제공됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;reasoning&lt;/b&gt; 모듈은 HermiT, ELK 등의 추론기를 사용해 implicit한 지식을 도출합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;verbalization&lt;/b&gt; 모듈은 복잡한 논리식을 자연어로 변환합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;normalization&lt;/b&gt; 모듈은 axiom을 정규형으로 변환하는데, 이는 모델 학습 시 입력 패턴을 단순화할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;taxonomy&lt;/b&gt; 모듈은 개념 간 subsumption 관계를 그래프 형태로 추출합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;projection&lt;/b&gt; 모듈은 OWL 온톨로지를 RDF 트리플 집합으로 변환하는데, 이는 지식그래프 모델에 유용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이 외에도 pruning 등의 모듈이 포함되어 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이러한 핵심 모듈 위에 개별 엔지니어링 태스크를 위한 도구와 자원이 구현됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;BERTMap&lt;/b&gt;과 &lt;b&gt;BERTSubs&lt;/b&gt;는 각각 &lt;b&gt;온톨로지 정렬과 완성을 위한 BERT 기반 모델&lt;/b&gt;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; Bio-ML&lt;/b&gt;은 정렬 모델 평가를 위한 벤치마크 데이터셋 및 프레임워크입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt; OntoLAMA&lt;/b&gt;는 프롬프트 기반 subsumption 예측을 통해 언어 모델의 온톨로지 이해도를 진단합니다. 그림에서 점선으로 표시된 것처럼, 임베딩이나 개념 삽입 등의 새로운 태스크를 지속적으로 추가할 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1154&quot; data-origin-height=&quot;466&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/3Tjw7/btsGS75Jxth/0ZDZYLXSXmkWKkKp8teZd0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/3Tjw7/btsGS75Jxth/0ZDZYLXSXmkWKkKp8teZd0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/3Tjw7/btsGS75Jxth/0ZDZYLXSXmkWKkKp8teZd0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F3Tjw7%2FbtsGS75Jxth%2F0ZDZYLXSXmkWKkKp8teZd0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1154&quot; height=&quot;466&quot; data-origin-width=&quot;1154&quot; data-origin-height=&quot;466&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 2는 DeepOnto가 제공하는 두 가지 주요 기능, 즉 온톨로지&lt;b&gt; pruning&lt;/b&gt;과 &lt;b&gt;verbalization&lt;/b&gt;의 예시를 보여줍니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;왼쪽 그림은 온톨로지 pruning 과정을 나타냅니다. Pruning은 온톨로지에서 불필요하거나 중복된 개념을 제거하여 온톨로지의 크기를 줄이는 기술입니다. 그러나 단순히 개념을 삭제할 경우 원래의 subsumption 계층 구조가 훼손될 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이를 방지하기 위해 DeepOnto는 Bio-ML에서 제안된 pruning 알고리즘을 구현하고 있습니다. &lt;i&gt;이 알고리즘은 제거 대상 개념의 상위 개념과 하위 개념 간에 새로운 subsumption 관계를 추가함으로써 계층 구조를 유지&lt;/i&gt;합니다. 예를 들어, 그림에서 점선으로 표시된 개념을 제거할 때, 해당 개념의 상위 개념과 하위 개념을 직접 연결하는 파란색 실선의 &lt;b&gt;subsumption 관계가 추가&lt;/b&gt;됩니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;오른쪽 그림은 복잡한 개념 표현식(complex concept expression)을 자연어로 변환하는 &lt;b&gt;verbalization&lt;/b&gt; 과정을 보여줍니다. 예시에서는 &lt;i&gt;&quot;FoodProduct ⊓ &amp;exist;derivesFrom.(InvertebrateAnimal ⊔ VertebrateAnimal)&quot;&lt;/i&gt;이라는 표현식이&lt;i&gt; &quot;food product that derives from invertebrate animal or vertebrate animal&quot;&lt;/i&gt;이라는 자연어 문장으로 변환되고 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DeepOnto는 OntoLAMA에서 제안된 재귀적 verbalization 알고리즘을 구현하고 있습니다. 이 알고리즘은 다음과 같은 절차를 따릅니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;복잡한 개념 표현식을 구문 분석하여 트리 형태로 변환합니다.&lt;/li&gt;
&lt;li&gt;트리의 잎 노드(leaf node)에 해당하는 원자 개념(atomic concept)과 역할(role)을 미리 정의된 자연어 템플릿에 따라 verbalization합니다.&lt;/li&gt;
&lt;li&gt;내부 노드(internal node)에 대해서는 자식 노드의 verbalization 결과를 재귀적으로 합성합니다. 이때 논리 연산자(⊓, ⊔, &amp;exist; 등)에 따라 적절한 자연어 표현을 사용합니다.&lt;/li&gt;
&lt;li&gt;루트 노드에 도달할 때까지 위 과정을 반복하여 최종 verbalization 결과를 얻습니다.&lt;/li&gt;
&lt;/ol&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Ontology Processing 논문 발췌 부분&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;Ontology&lt;/b&gt;: DeepOnto의 기본 클래스로, OWL API의 핵심 기능을 래핑합니다. 온톨로지 파일 로드/저장, 엔티티 검색, 상위/하위 개념 탐색, axiom 수정 등의 작업을 수행할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Reasoning&lt;/b&gt;: 온톨로지에 내재된 implicit한 지식을 추론하는 기능을 제공합니다. HermiT, ELK, Structural 등 다양한 추론 엔진을 지원하며, 개념 간 subsumption 관계, 불일치 검사 등을 수행할 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Pruning&lt;/b&gt;: 온톨로지에서 불필요한 개념을 제거하여 크기를 최적화하는 기능입니다. Bio-ML에서 제안된 알고리즘을 구현하여, subsumption 계층 구조를 보존하면서 pruning을 수행합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Verbalization:&lt;/b&gt; 개념, 속성, 제약 등 온톨로지의 주요 구성 요소를 자연어로 변환하는 기능입니다. 특히 OWL의 복잡한 논리식도 처리할 수 있는 재귀적 알고리즘을 제공합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Normalization:&lt;/b&gt; Axiom을 정규화된 형태로 변환하는 기능입니다. 정규화된 axiom은 패턴이 단순하므로 기계학습 모델의 학습을 용이하게 합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Taxonomy:&lt;/b&gt; 온톨로지의 개념 간 subsumption 관계를 추출하여 트리 또는 DAG 형태로 표현하는 기능입니다. 개념 계층 구조를 시각화하거나 분석하는 데 활용될 수 있습니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Ontology Projection:&lt;/b&gt; OWL 온톨로지를 RDF 그래프로 변환하는 기능입니다. 변환 과정에서 익명 노드(blank node) 사용을 최소화하여, 그래프 임베딩 등의 작업에 적합한 형태로 투영합니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이들 기능은 상호 보완적으로 활용될 수 있습니다. 예를 들어, Reasoning을 통해 implicit한 subsumption 관계를 도출한 후 Taxonomy로 시각화하고, Verbalization을 통해 자연어 설명을 생성할 수 있습니다. 또한 Normalization과 Projection을 조합하면 온톨로지 임베딩에 적합한 입력 형태를 얻을 수 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;종합하면 Ontology Processing 모듈은 온톨로지에 대한 다각적인 접근을 지원함으로써, 온톨로지 기반 지식 그래프 구축, 온톨로지 정렬/통합, 온톨로지 기반 추론 및 설명 등 다양한 엔지니어링 태스크의 토대가 됩니다. 뿐만 아니라 딥러닝 모델과의 접점을 제공함으로써 신경-상징 통합 연구에도 기여할 것으로 기대됩니다.&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Tools and Resources&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;718&quot; data-origin-height=&quot;254&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cflZTN/btsGWdiKvqX/aQILQ7BpuZove8AKIhZlX0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cflZTN/btsGWdiKvqX/aQILQ7BpuZove8AKIhZlX0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cflZTN/btsGWdiKvqX/aQILQ7BpuZove8AKIhZlX0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcflZTN%2FbtsGWdiKvqX%2FaQILQ7BpuZove8AKIhZlX0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;718&quot; height=&quot;254&quot; data-origin-width=&quot;718&quot; data-origin-height=&quot;254&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;b&gt;BERTMap&lt;/b&gt;: 두 온톨로지 간의 개념 정렬(alignment), 특히 동등 관계에 있는 개념 쌍을 찾는 도구입니다. BERT 언어 모델을 fine-tuning하여 개념 레이블 간 유사도를 계산하고, 이를 바탕으로 정렬 스코어를 산출합니다. 후보 개념 쌍 선정에는 서브워드 인덱싱을, 정렬 결과 확장에는 locality 원칙에 기반한 반복적 탐색을 활용합니다. BERTMap은 다양한 하이퍼파라미터 설정과 외부 리소스 활용을 지원하며, 경량화된 버전인 BERTMapLt도 제공합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;BERTSubs&lt;/b&gt;: 단일 온톨로지 내에서 누락된 subsumption 관계를 예측하는 온톨로지 완성 도구(BERTSubs Intra)와, 두 온톨로지 간의 subsumption 정렬을 수행하는 도구(BERTSubs Inter)로 구성됩니다. 역시 BERT 기반으로, 개념 레이블을 Isolated, Path, Breadth 등의 방식으로 임베딩한 후 subsumption 여부를 분류합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Bio&lt;/b&gt;-&lt;b&gt;ML&lt;/b&gt;: 의학 도메인 온톨로지들로부터 구축된 대규모 정렬 및 완성 벤치마크입니다. SNOMED-CT, FMA, NCIT, MONDO 등 7개 온톨로지 간의 조합으로 구성되며, 전문가 검증을 거친 Ground Truth 정렬을 제공합니다. 기존 벤치마크 대비 규모와 품질 면에서 개선되었을 뿐 아니라, subsumption 정렬을 포함하고 랭킹 기반 평가 지표를 도입했다는 점에서 기계학습 기반 온톨로지 정렬 연구에 기여할 것으로 기대됩니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;OntoLAMA&lt;/b&gt;: 기존 LAMA 프로빙 프레임워크를 온톨로지 도메인으로 확장한 벤치마크입니다. 다양한 온톨로지로부터 원자/복합 개념 간 subsumption 쿼리를 자동 생성하고, 이를 활용해 사전학습된 언어 모델의 개념적 추론 능력을 평가합니다. 특히 개념 verbalization 기술과 프롬프트 최적화를 통해, 적은 수의 Few-Shot 샘플로도 성능 향상을 달성했다는 점에서 의의가 있습니다.&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;각 도구는 DeepOnto의 핵심 모듈을 활용하여 구현되었으며, 모듈화된 설계 덕분에 쉽게 확장 및 개선될 수 있습니다. 특히 Bio-ML과 OntoLAMA는 단순히 평가 벤치마크를 넘어, 관련 태스크의 문제 설정과 방법론에 대한 통찰을 제공한다는 점에서 가치가 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h2 id=&quot;section-5&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size26&quot;&gt;4. 실험 및 결과&lt;/h2&gt;
&lt;h3 id=&quot;section-6&quot; style=&quot;background-color: #ffffff; color: #353638; text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;Dataset&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서는 DeepOnto의 성능을 평가하기 위해 다양한 도메인과 규모의 온톨로지 데이터셋을 활용했습니다. 주요 데이터셋은 다음과 같습니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;&lt;b&gt;Bio-ML&lt;/b&gt;: 의학 도메인의 SNOMED-CT, FMA, NCIT, MONDO 등 7개 온톨로지로 구성된 정렬 및 완성 벤치마크입니다. 전문가 검증을 거친 Ground Truth 정렬을 제공하며, 동등 관계와 subsumption 관계를 모두 포함합니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;OntoLAMA&lt;/b&gt;: 일반 도메인 온톨로지들로부터 추출한 subsumption 쿼리 데이터셋입니다. 원자 개념뿐 아니라 복합 개념 간의 subsumption 관계도 포함하며, 언어 모델의 개념적 추론 능력을 평가하는 데 활용됩니다.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;산업 도메인 데이터셋&lt;/b&gt;: 삼성 리서치 UK의 Digital Health Coaching 프로젝트에서 사용된 NHS 건강 정보 온톨로지와 DOID 질병 온톨로지 간의 정렬 태스크를 수행했습니다.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&quot;section-7&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Baseline&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;DeepOnto의 성능을 평가하기 위해 다음과 같은 기준 모델들과 비교했습니다:&lt;/p&gt;
&lt;ol style=&quot;list-style-type: decimal;&quot; data-ke-list-type=&quot;decimal&quot;&gt;
&lt;li&gt;온톨로지 정렬: LogMap, AML 등 기존 온톨로지 정렬 시스템과 String Matching 등 단순 문자열 기반 방법을 baseline으로 사용했습니다.&lt;/li&gt;
&lt;li&gt;온톨로지 완성: TransE, DistMult 등 지식 그래프 임베딩 모델과 논리 기반 Reasoner를 baseline으로 삼았습니다.&lt;/li&gt;
&lt;li&gt;언어 모델 프로빙: LAMA 벤치마크의 일반 도메인 태스크와 생의학 특화 벤치마크인 BLURB를 baseline으로 활용했습니다.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&quot;section-8&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Results&lt;/h3&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;690&quot; data-origin-height=&quot;461&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Vi0DD/btsGVsHrEPV/Rtxa5yF9hpFszkOnkkWRH1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Vi0DD/btsGVsHrEPV/Rtxa5yF9hpFszkOnkkWRH1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Vi0DD/btsGVsHrEPV/Rtxa5yF9hpFszkOnkkWRH1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FVi0DD%2FbtsGVsHrEPV%2FRtxa5yF9hpFszkOnkkWRH1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;690&quot; height=&quot;461&quot; data-origin-width=&quot;690&quot; data-origin-height=&quot;461&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실험 결과, DeepOnto는 대부분의 태스크에서 baseline 대비 우수한 성능을 보였습니다. 특히 Bio-ML 벤치마크에서 BERTMap과 BERTSubs는 각각 동등 관계와 subsumption 관계 정렬에서 가장 높은 정확도와 재현율을 달성했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;OntoLAMA에서도 DeepOnto의 프롬프트 기반 접근법이 기존 방법 대비 현저히 적은 Few-Shot 샘플로 높은 성능을 얻을 수 있음을 확인했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;산업 도메인 데이터셋에 대해서도 DeepOnto는 활용 가능한 수준의 정렬 품질을 보였습니다. 다만 out-of-domain 개념에 대한 오정렬이 관찰되었는데, 이는 도메인 특화 어휘 자원의 통합 등으로 개선될 수 있을 것으로 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 id=&quot;section-9&quot; style=&quot;background-color: #ffffff; color: #252525; text-align: start;&quot; data-ke-size=&quot;size23&quot;&gt;Conclusion&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;종합하면 DeepOnto는 온톨로지 정렬, 완성, 언어 모델 프로빙 등 다양한 엔지니어링 태스크에서 우수한 성능을 입증했습니다. 특히 딥러닝, 그 중에서도 언어 모델과의 통합을 통해 기존 방법론의 한계를 극복하고 새로운 접근법을 제시했다는 점에서 의의가 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;또한 Bio-ML, OntoLAMA 등 DeepOnto가 구축한 벤치마크 데이터셋은 관련 연구 커뮤니티에 유용한 자원이 될 것입니다. 온톨로지 정렬, 완성 등의 태스크에 머신러닝을 적용하고자 하는 연구자들은 이들 데이터셋을 활용해 보다 객관적이고 체계적인 실험을 수행할 수 있을 것입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;물론 아직 개선의 여지도 있습니다. 도메인 지식의 보다 효과적인 통합, 대규모 온톨로지에 대한 효율성 및 확장성 향상, 온톨로지 변경 사항의 실시간 반영 등은 향후 DeepOnto가 지속적으로 연구해야 할 주제들입니다. 그러나 현재의 성과와 발전 가능성에 비추어 볼 때, DeepOnto는 온톨로지와 딥러닝의 융합을 선도하는 플랫폼으로서 자리매김할 수 있을 것으로 기대됩니다.&lt;/p&gt;</description>
      <category>Data science/딥러닝 논문 리뷰</category>
      <category>AI</category>
      <category>논문리뷰</category>
      <category>온톨로지</category>
      <author>minyoungxi</author>
      <guid isPermaLink="true">https://minyoungxi.tistory.com/110</guid>
      <comments>https://minyoungxi.tistory.com/110#entry110comment</comments>
      <pubDate>Thu, 25 Apr 2024 11:18:29 +0900</pubDate>
    </item>
  </channel>
</rss>