[머니코믹스] AI 시대, 반도체의 각 역할

2026. 2. 19. 20:28부자에 대한 공부/투자 현인들의 인사이트

반응형

반도체의 역할을 이 영상에서 설명한 핵심만 정리하면, “AI 시대 데이터(정보)를 어디에 어떻게 저장·읽기·활용하느냐”담당하는 각종 메모리(디램·HBM·낸드)의 분업 구조와, 이 때문에 메모리 수요·이익 구조가 폭발하고 있다는 내용입니다.

## 1. 메모리의 기본 구분 (DRAM vs NAND)  
반도체 메모리는 크게 두 가지로 나뉩니다.  

- DRAM(휘발성 메모리)  
  - 작업 중인 데이터를 순간순간 저장했다가 전원이 꺼지면 날아가는 메모리.  
  - 컴퓨터에서 프로그램 실행 속도, 반응성을 좌우하기 때문에 **속도**가 매우 중요하며 비싸고 마진이 높습니다.  

- NAND(비휘발성 메모리)  
  - 휴대폰 사진, 영상처럼 전원을 꺼도 계속 남는 데이터 저장용.  
  - 속도보다 **용량**과 **저렴한 가격**이 핵심이라, 대용량·저가 구조를 지향합니다.  

요약하면 DRAM은 “지금 하는 일의 작업공간”, NAND는 “오래 보관하는 창고” 역할입니다.  

## 2. HBM, 일반 DRAM, NAND의 역할 차이  
영상에서 가장 강조하는 부분이 HBM·일반 DRAM·NAND의 역할 분담입니다.  

- HBM (High Bandwidth Memory)  
  - DRAM의 일종이지만, 여러 층으로 쌓아 초고속·초대역폭으로 GPU 옆에 붙는 메모리.  
  - AI 학습(트레이닝) 단계에서 엄청난 양의 연산을 빠르게 처리하기 위해 필요하며 가장 **비싸고 마진이 높음**.  
  - “교과서를 펼쳐 놓고 초고속으로 참고하며 문제 푸는 오픈북 시험” 같은 역할.  

- 일반 DRAM (LPDDR, DDR 등)  
  - CPU·서버 옆에 붙어 “최근 대화·맥락”을 기억하는 역할을 합니다.  
  - 특히 AI **추론** 단계에서, 사용자와 주고받는 대화의 맥락(키–값, KV 캐시)을 저장하는 용도로 LPDDR 수요가 폭증하고 있다고 설명합니다.  

- NAND  
  - 자주 쓰진 않지만 오래 보관해야 하는 **콜드 데이터(추억, 기록)** 저장 창고.  
  - AI가 학습·추론을 많이 할수록 쌓아둘 데이터(영상, 텍스트, 로그)가 폭발적으로 늘어나기 때문에, 앞으로 콜드 데이터용 NAND 수요가 크게 증가할 것으로 봅니다.  

마진 구조는 “HBM > 일반 DRAM > NAND” 순으로 설명합니다.  

## 3. AI 시스템 안에서 메모리의 실제 동작  
엔비디아 GPU, CPU, 메모리가 한 덩어리로 묶인 AI 서버(랙) 안에서 각 메모리가 어떻게 역할을 나누는지 정리합니다.  

- GPU + HBM  
  - AI 모델 학습 시 대규모 행렬연산을 수행하며, HBM은 GPU 바로 옆에서 초고속으로 데이터 읽기/쓰기 담당.  

- CPU + DRAM(LPDDR/DDR)  
  - 대화의 맥락, 직전까지의 입력·출력 내용을 키–값(KV) 형태로 저장하는 **KV 캐시 메모리**로 사용.  
  - 컨텍스트 길이(8K → 32K → 128K 이상)와 동시 접속자 수가 늘어나면서 KV 캐시 용량 요구가 몇 배로 불어났고, 이게 DRAM 수요 급증의 핵심 요인이라고 설명합니다.  

- DPU/블루필드 + NAND  
  - 거대한 콜드 데이터(수십~수백 테라바이트)를 관리하고, 자주 쓰는 일부만 따로 뽑아 빠른 계층으로 옮겨주는 역할.  
  - 이 구조 변화로 인해 “콜드 데이터용 NAND”도 장기적으로 크게 성장할 포인트라고 강조합니다.  

## 4. 왜 요즘 DRAM·HBM·NAND가 동시에 뜨는가  
영상에서 반도체(특히 메모리)가 시장을 끌고 가는 이유를 다음처럼 설명합니다.  

- HBM  
  - AI 학습용 GPU와 짝을 이루며, 공급능력 대비 수요가 워낙 강해서 높은 가격·마진 구조가 형성.  

- DRAM(LPDDR/DDR)  
  - 작년 하반기부터 HBM이 너무 비싸지고, 동시에 KV 캐시용 메모리 수요를 업계가 과소 추정했던 탓에 DRAM 가격이 단기간에 두 배 수준까지 뛰었다는 언급이 나옵니다.  
  - 특히 엔비디아 차세대 플랫폼(블랙웰, 루빈·베라 루빈 조합)에서 LPDDR 용량이 현 세대 대비 약 3배 이상(480GB → 1.5TB급)으로 늘어날 것으로 설명하며, DRAM 수요의 구조적 증가를 강조합니다.  

- NAND  
  - AI 확산으로 콜드 데이터(장기 보관용) 규모가 테라바이트, 나아가 페타바이트급으로 늘어나면서, CES에서 엔비디아가 콜드 데이터 중요성을 언급한 이후 샌디스크(낸드 업체) 주가가 급등한 사례를 소개합니다.  

요지는 “AI 인프라 확산 → HBM·DRAM·NAND가 각각 맡은 역할 때문에 모두 구조적으로 수요가 늘고 있고, 특히 마진 높은 구간이 열려 있다”는 것입니다.  

## 5. 투자 관점에서의 시사점(영상에서 암시하는 부분)  
영상은 교육이 목적이지만, 자연스럽게 투자 관점 메시지도 많이 담고 있습니다.  

- 삼성전자·SK하이닉스는  
  - HBM, 일반 DRAM, NAND를 모두 보유한 플레이어로, AI 사이클의 정중앙에 있다는 점을 반복적으로 강조합니다.  
  - 마진 60%를 넘은 과거 메모리 호황을 언급하고, 향후 특정 시나리오에서는 80%대 영업이익률까지도 이론적으로 거론되는 구간이 있다고 설명합니다.  

- 주가 레벨과 밸류에이션  
  - 삼성전자·SK하이닉스의 목표 이익과 PER 10배 전후 구간(삼성 16만~18만, 하이닉스 100만 이상 등)을 가정하며, 한국 증시 전체 리레이팅 가능성과 함께 스토리를 전개합니다.  

- 결론적 메시지  
  - “반도체는 이제 AI 인프라의 ‘필수재’가 되어 멈추기 어려운 구조에 들어갔다”는 인식을 주고, 단기 변동성보다 구조적 수요·마진 구도를 이해하고 접근해야 한다는 뉘앙스를 줍니다.  

반응형