경제

엔비디아 '슈퍼칩'· AMD '슈퍼컴' 공개… HBM 고속질주. SK하이닉스 HBM4 16단 첫 선… AI 메모리 솔루션 대거 공개

산에서놀자 2026. 1. 7. 05:49
728x90
반응형
SMALL

CES 2026에서 AI 반도체 경쟁이 ‘정점 단계’로 진입했음을 보여주는 신호탄입니다. 핵심을 HBM 관점 + 엔비디아 vs AMD 구도로 정리해드릴게요.


1️⃣ 한 줄 요약

엔비디아는 ‘슈퍼칩’, AMD는 ‘슈퍼컴’으로 맞붙었고
승부의 열쇠는 모두 HBM4였다.


2️⃣ 엔비디아 vs AMD, 무엇이 달랐나

🟢 엔비디아: “슈퍼칩으로 비용과 효율 압살”

베라 루빈 (Vera Rubin NVL72)

  • 구성
    • CPU ‘베라’ 36개
    • GPU ‘루빈’ 72개
  • 성능
    • 추론 성능: 블랙웰 대비 5배
    • 학습 성능: 3.5배
    • 토큰당 비용: 1/10
  • 의미
    • “AI는 이제 싸게, 많이 돌리는 싸움
    • 대규모 모델 + 로봇·자율주행(피지컬 AI) 최적화

👉 GPU 독주 체제를 ‘시스템 단위’로 고착화


🔵 AMD: “GPU 말고, 아예 슈퍼컴으로 가자”

헬리오스(Helios) AI 랙

  • 특징
    • HBM4 432GB (엔비디아 288GB보다 큼)
    • 3nm 공정 MI455 가속기
  • 전략
    • GPU + CPU + 메모리 통합 AI 슈퍼컴 플랫폼
    • 2027년 MI500 예고
  • 리사 수 발언
  • “5년 내 AI 연산 능력은 100배 필요”

👉 메모리 용량·확장성으로 엔비디아 견제


3️⃣ 왜 시장이 HBM에 열광하나

✔ HBM이 없으면 ‘슈퍼칩·슈퍼컴’도 없다

  • 루빈: HBM4 8개
  • 루빈 울트라(2027): 12개
  • 헬리오스: HBM4 대량 탑재

📌 AI 성능 공식이 바뀜

GPU 성능 × HBM 용량 × 메모리 대역폭


4️⃣ 삼성전자·SK하이닉스에 중요한 이유

🔥 공통점

  • 엔비디아·AMD 양쪽 모두의 필수 공급사
  • HBM4 이미 인증 막바지

🔥 SK하이닉스

  • HBM3E → HBM4 기술 선도
  • 젠슨 황 연설 현장 직접 방문 → 전략적 파트너 확인
  • “HBM = 하이닉스” 인식 강화

🔥 삼성전자

  • AMD와 관계 깊음
  • HBM4 진입 성공 시 점유율 반전 카드
  • 파운드리·패키징 연계 가능성

👉 HBM 시장은 ‘단기 사이클’이 아니라
최소 5~7년짜리 구조적 성장 국면


5️⃣ 이 기사에서 가장 중요한 시그널 🚨

  1. AI 경쟁은 끝나지 않았다
    • 오히려 이제 본게임 시작
  2. GPU 단품 시대 종료
    • 슈퍼칩·슈퍼컴 = 시스템 전쟁
  3. HBM4는 선택이 아니라 필수
  4. 메모리 업체가 AI 패권의 핵심 플레이어

6️⃣ 정리하면

CES 2026은
“AI 반도체의 주연이 GPU에서 ‘GPU+HBM 시스템’으로 넘어간 해”
로 기록될 가능성이 큽니다.

 

 

 

 

 

 

 

 

 

 

 

1️⃣ 무엇을 공개했나 (팩트 요약)

SK하이닉스 CES 2026 핵심 공개 내용

🔹 HBM

  • HBM4 16단 48GB 최초 공개
    • 업계 최고 수준 AI 메모리
    • 기존 HBM4 12단(36GB, 11.7Gbps)의 상위 후속
    • 고객 일정에 맞춘 선(先)공개 → 양산 로드맵 제시
  • HBM3E 12단 36GB
    • 2026년 HBM 시장 과반 이상 점유 예상
    • 엔비디아 최신 AI 서버 GPU 모듈에 실제 탑재 사례 전시

🔹 AI 서버·온디바이스 메모리

  • SOCAMM2: AI 서버 특화 저전력 모듈
  • LPDDR6: 온디바이스 AI(스마트폰·엣지 AI) 대응

🔹 NAND

  • 321단 2Tb QLC NAND
    • AI 데이터센터용 초고용량 eSSD
    • 전력 효율·성능 대폭 개선

🔹 차세대 구조 (차별화 포인트)

  • cHBM(맞춤형 HBM)
  • PIM 기반 AiMX 가속 카드
  • CuD (Compute-under-DRAM)
    → “메모리가 연산을 일부 담당”

2️⃣ 기술적으로 중요한 포인트

✔ 단순 용량·속도 경쟁 종료

  • HBM 성능 경쟁 → “AI 시스템 최적화 경쟁”으로 이동
  • 메모리가:
    • 데이터 저장
    • 연산·제어 일부 수행
    • AI 추론 비용과 전력 소모를 줄이는 구조

✔ GPU 중심 구조의 변화

  • 기존:
    GPU(연산) + HBM(보조)
  • 미래:
    GPU + ‘연산하는 HBM’
  • 이는 엔비디아·ASIC 고객 맞춤형 설계가 핵심 경쟁력

3️⃣ SK하이닉스 전략의 의미

🔥 “HBM = SK하이닉스” 공식 강화

  • HBM3E → HBM4까지 로드맵 선점
  • 삼성·마이크론 대비:
    • 양산 신뢰도
    • 엔비디아와의 실질 협업
    • 맞춤형 설계 역량에서 우위

🔥 AI 메모리 플랫폼 기업으로 진화

  • 단순 메모리 공급자 ❌
  • AI 인프라 공동 설계 파트너 ⭕

4️⃣ 엔비디아와의 관계 시그널 🚨

  • 곽노정 CEO, 김주선 사장이 젠슨 황 연설 직접 참석
  • 의미:
    • HBM4·cHBM의 핵심 고객이 엔비디아임을 명확히 시사
    • 블랙웰 이후 차세대 GPU까지 동반 진화 구조

👉 시장에서는
**“HBM4 세대에서도 SK하이닉스 주도권 지속”**으로 해석 가능


5️⃣ 투자·산업 관점 한 줄 정리

AI 반도체 경쟁의 본질이 GPU → ‘GPU + 메모리 공동설계’로 이동했고,
그 중심에 SK하이닉스가 있다.

728x90
반응형
LIST