theCFO

컨콜 Q&A 리뷰

삼성전자 메모리 불황 속 희망? '챗GPT'가 궁금하다

AI 언어모델, 고용량 D램 필수…"상용화단계 근접, 수요증가 기대"

고진영 기자  2023-02-09 16:09:18

편집자주

컨퍼런스콜로 진행하는 기업설명회(IR)의 백미는 기업 관계자와 시장 관계자 사이에 오가는 질의응답(Q&A)이다. 투자자를 대변하는 시장의 관심이 무엇인지 드러나고 기업 입장에서 되도록 감추고 싶은 속살도 드러나기 때문이다. 이런 까닭에 자사 홈페이지에 IR 자료와 음성파일을 올릴 때 Q&A 부분만 제외하는 기업이 적지 않다. THE CFO가 IR의 백미 Q&A를 살펴본다.
“나같은 AI 모델 사용의 증가는 컴퓨터 하드웨어, 특히 D램의 수요증가에 기여할 수 있습니다. 데이터를 처리하고 응답을 생성하는데 큰 메모리를 가진 강력한 컴퓨터 시스템이 필요하기 때문입니다.”

대화형 인공지능(AI)인 챗GPT에게 ‘당신의 등장이 D램 수요에 어떤 영향을 미칩니까’라고 물었더니 이런 대답을 해줬다. 최근 실리콘밸리에 돌풍을 불러일으킨 챗GPT에 대한 질의는 삼성전자 컨퍼런스콜에서도 어김없이 나왔다. 반도체 다운사이클(침체기) 와중에 AI 열풍아 다시 시작되면서 가뭄의 단비로 기대를 모으고 있다.

◇'반도체 다운턴'에 관심 집중…시황 나빠도 투자규모 그대로

삼성전자 컨퍼런스콜은 부사장급인 IR팀장이 주도하는 방식이 굳어져 있다. CFO는 참여하지 않는다. 현재 IR팀장은 서병훈 부사장으로 2018년 말부터 IR팀에서 일했다. 팀장에 오른 것은 2020년이다.

컨콜의 진행 순서를 보면 IR팀장이 메인 스피커로 나서 실적과 전망, 시설투자와 주주환원책 계획, 지속가능경영 활동을 개괄적으로 설명한다. 그 뒤 각 사업부 담당임원들이 부문별 실적과 전망을 자세하게 부연하고 있다. 주요 자회사인 삼성디스플레이에서도 임원이 동석한다.

올해의 경우 메모리사업부 김재준 부사장, 시스템LSI사업부 권혁만 상무, 파운드리사업부 정기봉 부사장, MX사업부 다니엘 아라우호 상무, 영상디스플레이(VD) 노경래 상무, 삼성디스플레이 최권영 부사장이 참석했다.


질의 응답은 메모리반도체 다운사이클에 관한 우려가 주를 이뤘다. 10개 가운데 절반에 가까운 4개가 메모리 관련 질문이었다. 삼성전자 DS(반도체)부문 영업이익이 지난해 4분기에 97% 급감하면서 적자를 겨우 면했기 때문이다. 올 1분기도 적자가 예상되고 있다.

CAPEX(설비투자) 기조를 묻는 질문에 대한 관심도 높았다. 수요 전망의 불확실성 속에서 유일하게 통제가 가능한 부분이기 때문이다. 다만 답변자인 김재준 부사장은 인위적 감산은 이야기하지 않았다. 올해 CAPEX를 작년과 비슷한 규모로 예상했다. 삼성전자가 2022년 지출했던 CAPEX는 53조원 수준, 이중 반도체부문이 대부분인 48조원 정도를 썼다.

김 부사장은 “시황 약세가 당장의 실적에 우호적이진 않지만 미래를 준비할 수 있는 좋은 기회이며 중장기 수요 대응을 위한 인프라 투자를 계속해 필수 클린룸을 확보하고자 한다”며 “공정기술 경쟁력 강화를 위해 CAPEX에서 R&D(연구개발) 비중이 늘어날 것”이라고 말했다.

경쟁사들이 올해 CAPEX를 전년 대비 30% 이상 축소하는 것에 비하면 삼성전자의 투자비용 변화는 비교적 크지 않은 셈이다. 초격차 전략을 유지하면서 중장기 점유율 확대를 노린다고 볼 수 있다.


◇'창작'하는 AI, 메모리 부활 앞당길까

챗GPT(ChatGPT)에 대한 언급도 눈길을 끌었다. Q&A 시간에 이세철 씨티그룹 상무는 "챗GPT가 메모리 수요에 어떤 영향을 미칠 수 있을지"를 물었다. 이달 SK하이닉스 컨퍼런스콜에서도 거의 똑같은 질문이 있었다는 점에서 업계 주목도를 짐작할 수 있다. 챗GPT는 최근 시장에 엄청난 충격을 안긴 대화형 인공지능(AI)이다.

챗GPT는 마치 사람처럼 맥락에 맞는 대화가 가능할뿐더러 소설이나 곡을 쓰고 코딩을 짤 수도 있다. 창작력을 흉내낼 수 있다는 뜻이다. 복잡한 질문을 이해하거나 추론할 수 없는 애플의 시리, 삼성 빅스비 등 기존 인공지능보다 훨씬 차원이 높은 능력을 가졌다. 챗GPT의 등장은 메타, 알파벳 등 빅테크 기업들의 투자 혈투로까지 이어졌다. 최근에는 마이크로소프트가 챗GPT에 100억달러(약 12조원)를 투자하기도 했다.

메모리 수요와 관련해 투자자들이 챗GPT에 관심을 갖는 이유는 초거대 AI 모델의 등장이 D램 수요에 불씨를 지필 수 있기 때문이다. AI의 생명은 대규모 빅데이터 학습과 빠른 연산이고, 여기에는 특화 반도체가 요구된다.

현재 AI에는 데이터 대량 처리가 가능한 병렬처리 방식의 그래픽처리장치(GPU)가 쓰이고 있으며 GPU에는 직접 데이터를 제공하는 고용량·고대역폭 D램(HBM)과 서버D램 등이 필수적이다. 챗GPT같은 AI가 대중화, 상용화된다면 간접적으로 메모리 수요를 촉진하는 요인이 될 수 있는 셈이다.

실제로 경쟁사인 SK하이닉스의 경우 고대역폭 HBM3를 생산하고 있다. 챗GPT에 쓰이는 GPU가 엔비디아의 A100 모델인데, 엔비디아향 HBM은 SK하이닉스의 HBM3 점유율이 압도적이다.

삼성전자 역시 2021년 반도체와 AI프로세서를 하나로 결합한 지능형 반도체 'HBM-PIM'을 개발했다. 기존 GPU 가속기보다 성능이 평균 2배 높으면서 에너지 소모는 절반이다. GPU 업계 2위인 AMD 제품에 사용된다.

김재준 부사장은 “챗GPT같은 AI서비스가 미래 메모리 수요에 긍정적인 영향을 미칠 것으로 기대하고 있고 특히 이런 서비스의 출시는 대규모 언어 모델이 상용화 단계에 근접한 수준을 달성했다는 의의가 있다” 며 “고성능 HBM과 AI 학습 데이터 처리를 지원하는 128GB 이상 고용량 서버 D램의 장기적 수요 증가를 예상 중” 이라고 답했다.
< 저작권자 ⓒ 자본시장 미디어 'thebell', 무단 전재, 재배포 및 AI학습 이용 금지 >