4월, 2026의 게시물 표시

삼성전자 반도체 (HBM 수율, 파운드리, 턴키 솔루션)

이미지
  부품 수급이 막히면 공장이 멈춥니다. 저도 작년 하반기에 딱 그 상황을 겪었습니다. 특정 반도체 부품이 갑자기 들어오지 않으면서 생산 라인 전체가 위태로워졌고, 그때 삼성전자와 TSMC를 동시에 상대하며 두 회사의 체질 차이를 온몸으로 느꼈습니다. 삼성전자 반도체를 둘러싼 시장의 시선은 여전히 엇갈리지만, 구매 실무 현장에서 본 그림은 조금 다릅니다. HBM 수율, 이제는 말이 아니라 숫자로 증명할 때 AI 인프라에 돈이 몰리면서 가장 수혜를 받는 부품이 HBM(High Bandwidth Memory)입니다. HBM이란 여러 장의 D램을 수직으로 쌓아 데이터 처리 속도를 극적으로 끌어올린 고대역폭 메모리로, 쉽게 말해 AI 가속기의 연산 속도를 좌우하는 핵심 부품입니다. 엔비디아의 GPU든, 구글의 TPU든 HBM 없이는 제대로 돌아가지 않습니다. 삼성전자가 HBM 경쟁에서 한동안 SK하이닉스에 밀린다는 이야기는 업계에서 공공연하게 돌았습니다. 그런데 제가 기술 백서(Technical White Paper)들을 꼼꼼히 살펴보면서 느낀 건, 5세대·6세대 HBM 제품군에서 수율(Yield) 개선 속도가 눈에 띄게 빨라지고 있다는 점이었습니다. 수율이란 전체 생산된 칩 중 정상적으로 동작하는 비율을 뜻하는데, 이 숫자가 올라갈수록 같은 투자 비용으로 더 많은 제품을 출하할 수 있어 수익성이 직접 개선됩니다. 범용 D램 가격도 방향이 바뀌고 있습니다. 데이터센터 증설과 온디바이스 AI 기기 확산이 맞물리면서 수요 저변이 넓어졌고, 삼성전자는 업계 최대 생산 케파(Capacity)를 보유한 덕분에 이 수요를 가장 효율적으로 흡수할 수 있는 위치에 있습니다. 단순히 경기 사이클 타는 메모리 회사라는 과거의 프레임으로 삼성전자를 보면 지금 시장 변화의 절반은 놓치게 됩니다. 투자자 입장에서 제가 유의 깊게 보는 지표는 매출액 총합보다 고객사 다변화 속도입니다. HBM 공급처가 특정 팹리스 한 곳에 집중되어 있는지, 아니면 여러 하이퍼스케일러(초대형 ...

엔비디아 투자 (AI가속기, 데이터센터, CUDA생태계)

이미지
 엔비디아는 현재 전 세계 AI 가속기 시장에서 80% 이상의 점유율을 쥐고 있습니다. 이 수치를 처음 접했을 때 저도 솔직히 '설마 이게 유지될까?' 싶었는데, 실무에서 직접 부딪혀 보고 나서야 왜 이 숫자가 쉽게 무너지지 않는지 이해하게 되었습니다. 만약 GPU 서버 수급 문제로 답답함을 겪고 계신다면, 이 글이 그 배경을 파악하고 투자 판단의 실마리를 찾는 데 도움이 될 것입니다. 현장에서 체감한 AI 가속기 공급 대란 저희 회사가 산업용 IoT 프로젝트를 진행하면서 클라우드 기반 연산 인프라 도입을 검토한 적이 있습니다. 공급업체에 견적을 요청했더니 돌아온 답변이 황당했습니다. "GPU 리소스 부족으로 인해 인프라 할당까지 최소 3개월이 소요됩니다." 뉴스에서 읽던 이야기가 갑자기 제 업무 일정표 위에 올라온 순간이었습니다. AI 가속기(AI Accelerator)란 딥러닝 모델 학습이나 추론 연산을 고속으로 처리하기 위해 설계된 특수 반도체를 뜻합니다. 일반 CPU와 달리 수천 개의 연산 코어를 병렬로 돌릴 수 있어 AI 작업에 최적화되어 있습니다. 그 수요가 지금 공급을 압도적으로 초과하고 있다는 걸, 저는 숫자가 아닌 '프로젝트 일정 지연'으로 먼저 배웠습니다. 하이퍼스케일러(Hyperscaler)라고 불리는 대형 클라우드 사업자들, 즉 아마존 AWS, 마이크로소프트 애저, 구글 클라우드 같은 기업들이 AI 인프라 구축을 위해 GPU를 쓸어담고 있기 때문입니다. 쉽게 말해 대형 공장들이 원자재를 선점하는 상황에서 중소 수요자들이 차례를 기다리는 구조입니다. 제가 겪은 3개월 대기는 이 구조의 말단에서 발생한 아주 작은 파문이었던 셈입니다. CUDA 생태계가 만들어내는 '탈출 불가' 구조 엔비디아의 지배력을 단순히 하드웨어 성능으로만 설명하는 분들도 있는데, 저는 CUDA 생태계야말로 진짜 핵심이라고 봅니다. CUDA(Compute Unified Device Architect...