※한경 마켓PRO 텔레그램을 구독하시면 프리미엄 투자 콘텐츠를 보다 편리하게 볼 수 있습니다. 텔레그램에서 ‘마켓PRO’를 검색하면 가입할 수 있습니다.
황수욱 메리츠증권 연구원
지난 2년간 AI 투자 아이디어는 빠르게 이동했다. 처음에는 GPU였다. 인공지능 모델을 학습시키고 답변을 만들어내려면 막대한 계산이 필요했고, 이 계산을 가장 잘하는 장치가 GPU였기 때문이다. 이후 관심은 HBM 같은 고대역폭 메모리로 옮겨갔다. 아무리 빠른 계산기가 있어도 필요한 데이터를 제때 공급하지 못하면 성능이 나오지 않는다. GPU의 성능을 충분히 끌어내기 위해 메모리의 중요성이 커진 것이다.
그 다음 시장이 주목한 것은 네트워크와 기판이었다. AI 데이터센터는 GPU를 많이 사서 꽂아두는 것만으로 완성되지 않는다. 수천 개, 수만 개의 GPU가 서로 데이터를 주고받으며 하나의 거대한 컴퓨터처럼 움직여야 한다. 이때 GPU끼리 연결되는 속도가 느리면 비싼 장비가 계산을 하지 못하고 기다리게 된다. 기판과 첨단 패키징도 마찬가지다. GPU와 메모리를 얼마나 가깝게, 얼마나 넓은 통로로 연결하느냐가 전체 성능을 좌우한다.
결국 AI 투자 아이디어의 이동은 단순한 테마 순환이 아니다. 핵심은 ‘병목의 이동’이다. 처음 병목은 연산 능력이었다. 그래서 GPU가 주목받았다. 다음 병목은 데이터를 공급하는 능력이었다. 그래서 HBM이 부상했다. 이후 병목은 GPU들을 서로 연결하고, 칩과 메모리를 물리적으로 촘촘하게 묶는 능력이었다. 그래서 네트워크, 기판, 첨단 패키징이 투자 아이디어의 중심으로 들어왔다.
최근 다시 주목받는 병목은 전력이다. AI 데이터센터는 전기를 엄청나게 많이 쓴다. 특히 차세대 AI 랙은 과거 서버 랙과 비교하기 어려울 정도로 높은 전력 밀도를 요구한다. 문제는 GPU를 얼마나 많이 확보하느냐에 그치지 않는다. 그 GPU에 필요한 전기를 얼마나 효율적으로 가져오고, 나누고, 변환하고, 식히느냐가 새로운 경쟁력이 되고 있다.
여기서 800VDC 전력 아키텍처가 등장한다. 쉽게 말하면 AI 데이터센터 안의 전기 고속도로를 새로 까는 작업이다. 같은 전력을 보낼 때 전압을 높이면 전류를 낮출 수 있고, 전류가 낮아지면 전력 손실도 줄어든다. AI 랙의 전력 소비가 커질수록 기존 전력 구조는 손실, 발열, 케이블 부피, 구리 사용량 측면에서 부담이 커진다. 800VDC는 더 많은 전기를 더 적은 손실로, 더 좁은 공간에서, 더 안정적으로 보내기 위한 구조다.
이 과정에서 전력반도체가 주목받는다. 전력반도체는 전기를 바꾸고, 나누고, 제어하는 반도체다. AI 데이터센터에서는 높은 전압을 받아 서버와 칩이 쓸 수 있는 낮은 전압으로 바꾸는 과정이 계속 필요하다. 이때 효율이 낮으면 전기가 열로 사라진다. 초대형 데이터센터에서는 전력 효율이 1~2%만 달라져도 비용 차이가 커질 수 있다.
특히 SiC와 GaN 같은 차세대 전력반도체가 관심을 받는다. SiC는 고전압과 고온 환경에 강하고, GaN은 빠른 스위칭과 높은 전력 밀도 구현에 유리하다. 과거에는 이런 전력반도체가 전기차, 태양광, 산업용 전력장치 중심의 이야기였다면, 이제는 AI 데이터센터라는 새로운 수요처가 부상하고 있다. AI 산업이 더 많은 전력을 요구할수록, 전기를 덜 낭비하고 더 효율적으로 쓰게 만드는 부품의 가치도 커진다.
또 하나의 다음 투자 아이디어는 CPU다. AI 투자에서 CPU는 한동안 주연이 아니었다. 대규모 행렬 연산은 GPU가 훨씬 잘하기 때문이다. 그러나 AI가 단순한 챗봇에서 에이전트형 AI로 진화하면 CPU의 역할이 다시 커진다.
기존 챗봇은 질문을 받으면 답변을 생성하는 구조에 가까웠다. 반면 에이전트형 AI는 목표를 이해하고, 여러 단계를 계획하고, 외부 도구를 호출하고, 파일을 읽고, 검색을 하고, 중간 결과를 다시 판단한다. 이 과정은 단순한 계산만으로 끝나지 않는다. 여러 작업을 순서대로 배치하고, 필요한 데이터를 준비하고, 메모리와 입출력을 관리하고, GPU가 쉬지 않도록 전체 작업 흐름을 조율해야 한다.
이 역할을 담당하는 것이 CPU다. GPU가 공장의 생산설비라면 CPU는 생산관리 시스템에 가깝다. 생산설비가 아무리 많아도 원재료 투입, 작업 순서, 물류 관리가 엉키면 공장 효율은 떨어진다. AI 데이터센터도 마찬가지다. GPU가 많아지고 AI 서비스가 복잡해질수록, 이를 관리하고 조율하는 CPU의 역할은 오히려 커질 수 있다.
따라서 CPU 투자 아이디어는 “GPU를 대체한다”는 이야기가 아니다. GPU가 더 많이 깔리고, AI 서비스가 더 복잡해질수록 CPU가 해야 할 일이 늘어나는 구조다. 특히 에이전트형 AI가 확산되면 추론은 한 번의 계산이 아니라 여러 단계의 업무 흐름이 된다. CPU는 이 흐름을 관리하면서 GPU의 생산성을 높이는 기반이 된다.
결국 최근 AI 투자 아이디어의 이동은 하나의 흐름으로 연결된다. GPU는 연산 병목을 풀었다. HBM은 데이터 공급 병목을 풀었다. 네트워크는 GPU 간 연결 병목을 풀었다. 기판과 첨단 패키징은 칩과 메모리 사이의 물리적 연결 병목을 풀었다. 이제 시장은 전력 공급 병목과 시스템 운영 병목을 보기 시작했다. 전자는 800VDC와 전력반도체로, 후자는 CPU로 연결된다.
중요한 것은 이런 변화가 GPU 사이클의 끝을 의미하지 않는다는 점이다. 오히려 GPU 중심의 AI 인프라가 너무 커졌기 때문에 그 주변의 병목이 차례로 드러나는 것이다. AI가 실제 산업 인프라가 되고, 데이터센터가 거대한 AI 공장으로 바뀌면 전력, 네트워크, 기판, CPU, 냉각, 소프트웨어 운영까지 모두 중요해진다.
투자자는 AI 산업을 하나의 부품 테마로 보기보다 병목의 이동으로 볼 필요가 있다. 앞으로도 시장은 “다음에 부족해질 것”을 찾아 움직일 가능성이 높다. 지금까지 그 답은 GPU, HBM, 네트워크, 기판이었다. 다음 질문은 더 분명해지고 있다. 폭증하는 AI 연산 수요를 감당하기 위해 전기를 어떻게 더 효율적으로 공급할 것인가. 그리고 복잡해지는 AI 업무 흐름을 누가 더 잘 조율할 것인가.
이 두 질문의 답이 바로 전력반도체와 CPU다. AI 투자 아이디어가 이 영역으로 확산되는 이유는 단순한 테마 순환이 아니다. AI 산업이 더 커지고, 더 복잡해지고, 더 많은 전력을 요구하는 방향으로 진화하고 있기 때문이다.

5 hours ago
3











English (US) ·