본문 바로가기
AI,Tech,Sci

[AI 인프라 백서 #01] 우리 칩 없으면 GPT고 Gemini고 못 돌아간다. 엔비디아(NVDA) FY26

by pragma 2026. 4. 29.

 

독점의 미학: 인공지능 모델도 GPU 없이는 못 돌아간다. 그리고 개발 코드도 우리 꺼 아니면 힘들걸?

자체 인프라 사이클의 수익화: 엔비디아는 2026 회계연도 매출 2,159억 달러라는 전례 없는 성장을 기록했다. 특히 연간 R&D 지출을 2년 만에 87억 달러에서 185억 달러로 두 배 이상 확대하며, 경쟁사의 추격 의지를 꺾는 기술적 독점 체제를 공고히 하고 있다. 단순 이익 회수가 아닌 차세대 기술로의 강제적 이주를 유도하는 구조적 전략이다.

전력 및 자본의 선순환 고리: IEA 데이터에 따르면 2025년 하이퍼스케일러들의 AI 인프라 자본 지출은 3,200억 달러에 달하며, 미국의 전력 수요를 지난 10년 평균의 두 배 속도로 끌어올리고 있다. 엔비디아는 이 거대한 에너지 수요의 기점에 서서, 전력 효율에 최적화된 베라 루빈(Vera Rubin) 플랫폼을 통해 인프라 확장의 병목 현상을 통제하고 수요의 가시성을 확보한다.

제조 주권과 지정학적 리포지셔닝: 대만 해협 등 지정학적 리스크에 대응하기 위해 4년간 5,000억 달러 규모의 미국 내 제조 투자를 공식화했다. 공급망 안정성을 넘어 미국 연방 정부의 AI 투자 아키텍처 내부로 진입하는 제도적 해자를 형성하며, 중국 시장의 불확실성을 상쇄할 수 있는 강력한 국내 정치·경제적 기반을 구축하는 단계로 진입했음을 시사한다.
 

주요 출처: 미국 증권거래위원회 온라인 데이터베이스 (SEC EDGAR, Securities and Exchange Commission Electronic Data Gathering, Analysis, and Retrieval)에서 제공하는 엔비디아 공시자료 ((NVDA 10-K / 8-K, FY2026), NVIDIA 블로그 뉴스룸, 국제에너지기구 (IEA, International Energy Agency) 2025 전력 시장 보고서.

 

*주인장의 짧은 코멘트: 전교 1등이 저런 심정인가 봅니다. 2등이나 3등이 따라오지 못하게 격차를 유지하는 것도 스트레스겠죠. 데이터센터에 들어가는 GPU는 아직까지는 엔비디아의 것이 제일입니다. 문제는 데이터센터 용으로 물량이 집중되다 보니 일반 소비자용 GPU로 구하기에는 비싼 돈을 주어야 한다는 단점이 있습니다. 그 틈새를 파고드는 게 AMD이죠. 하지만 돈은 데이터센터에서 나옵니다. 산수에 약해도 답이 금방 나옵니다. 하드웨어 사양을 조금 따라잡는다고 해도, 이미 전 세계 개발자들이 엔비디아의 소프트웨어(CUDA) 생태계에 발이 묶여 있다는 게 진짜 무서운 점이죠. 성능 차이보다 더 무서운 게 익숙함의 격차입니다. 저는 이 소프트웨어 통행세가 끊기지 않는 한 엔비디아의 독주는 계속될 거라 봅니다

 

*PC나 태블릿 열람을 적극 권장합니다.

*경고: 이 보고서는 기업/산업 분석에만 충실하며, 향후 투자에 도움이 될 만한 시나리오를 제공하지 않습니다.


KEY METRICS — 회계연도 2026(from Jan 27, 2025 to Jan 25, 2026)/회계연도 2027 가이던스

FY2026 Revenue
회계연도 26년 매출
Data Center Rev.
데이터센터 매출
Q4 FY26 Revenue
회계연도 26년 4분기
R&D Spend FY26
연구개발 지출
CapEx FY26
자본 지출
Shareholder Return
주주 환원
$215.9 B
+65% Y/Y
$193.7 B
+68% Y/Y
$68.1 B
+73% Y/Y
$18.5 B
vs $8.7B FY24
$6.0 B
vs $1.1B FY24
$41.1 B
FY2026 total
Q1 FY27 Guidance 회계연도 27년 1분기 가이던스
Market Cap
시가총액
OpenAI Invest.
오픈AI 투자협력
US Mfg. Pledge
미국 내 제조 투자
Cumulative R&D
누적 연구개발 지출(창립이래)
Buyback Auth.
주주 환원 대기자금
$78.0 B
±2%, ex-China (중국 제외-미 정부의 수출규제)
~$4.0 T
as of Jul 2025
Up to $100 B
10 GW deploy.
$500 B
over 4 years
>$76.7 B
since inception
$58.5 B
remaining

Sources: NVIDIA Corporation, Form 8-K (Q4 FY2026), filed February 25, 2026; Form 10-K (FY2026), filed February 25, 2026. SEC EDGAR.


Section I.  재무 구조: 자체 인프라 사이클을 수익화하는 플랫폼

 

 

2026년 1월 25일에 종료된 엔비디아의 2026 회계연도(실제로는 2025년에 해당)는 대형 기술주 역사상 보기 드문 매출 확장 속도를 기록했습니다. 연간 총 매출은 2,159억 달러에 달하며, 2025 회계연도의 1,305억 달러 대비 65% 증가한 수치입니다(NVIDIA Corporation 2026a). 블랙웰(Blackwell) GPU 플랫폼을 포함한 엔비디아의 가속 컴퓨팅 제품군이 포함된 데이터 센터(Data Center) 부문이 이러한 성장의 핵심 엔진이었으며, 연간 1,937억 달러의 매출을 기록하여 전년 대비 68% 성장했습니다(NVIDIA Corporation 2026a).

 

4분기에도 속도는 줄지 않았습니다. 분기 매출 681억 달러는 전 분기 기록인 570억 달러 대비 20% 증가한 수치이며, 전년 동기 대비로는 73% 증가한 수치입니다. 해당 분기 단일 데이터 센터 매출만 623억 달러에 달했는데, 대부분의 반도체 기업들의 연간 총 매출을 상회하는 수치입니다(NVIDIA Corporation 2026a). 또한 회사는 2027 회계연도 1분기 매출 가이던스를 780억 달러(±2%)로 제시하며, 이 전망치에 중국 시장의 데이터 센터 컴퓨팅 매출이 포함되지 않았음을 명시적으로 언급했습니다. 바꾸어 말하면 중국 외 지역 하이퍼스케일러(대규모 IT 기업)들의 유기적 수요만으로도 성장 궤도를 유지하기에 충분하다는 것입니다 (NVIDIA Corporation 2026a).

 

26 회계연도 4분기 75.0%(GAAP 기준), 회계연도 전체 71.1%에 달하는 매출 총이익률(Gross margins)은 엔비디아가 제품 하나를 팔 때 남는 수익성(단위당 경제성, unit economics)을 희생하면서 매출을 키운 것이 아니라는 점이 수치로 확인됩니다 (NVIDIA Corporation 2026a).

 

R&D(연구개발) 투자는 더 시사적입니다. 엔비디아는 2026 회계연도에 연구개발비로 185억 달러를 지출했으며, 2025 회계연도의 129억 달러, 2024 회계연도의 87억 달러와 비교되는 수치입니다. 2년간 연평균 약 46%의 복합 성장을 기록한 것입니다(NVIDIA Corporation 2026b). 자본 지출(CapEx, 시설투자) 또한 유사한 곡선을 그리며 2024 회계연도 11억 달러에서 2026 회계연도 60억 달러로 2개 회계연도 만에 약 5배 증가했습니다(NVIDIA Corporation 2026b). 창립 이래 이 회사는 연구개발에 767억 달러 이상을 투자해 왔습니다(NVIDIA Corporation 2026b). 수치만 놓고 보면 독점을 더 비싸게 만드는 작업입니다.

 

2026 회계연도에 자사주 매입과 배당을 통해 실행된 411억 달러 규모의 주주 환원은 이 투자 프로그램과 동시에 집행되었으며, 연말 기준 585억 달러의 자사주 매입 잔여 한도가 남아 있습니다(NVIDIA Corporation 2026a). 실적 발표 당시 CEO 젠슨 황(Jensen Huang)이 밝힌 프레임은 이 전략의 논리를 직접 드러냅니다: "기업들의 에이전트 도입이 급증하고 있습니다. 우리의 고객들은 AI 산업 혁명과 그들의 미래 성장을 견인하는 공장인 AI 컴퓨팅에 투자하기 위해 경쟁하고 있습니다" (NVIDIA Corporation 2026a).


Section II. 수요 환경: 데이터 센터 전력 및 자본에 관한 IEA 데이터

 

엔비디아의 시장 지위는 전력망 데이터 없이는 제대로 읽히지 않습니다.

a. 미국 전력 수요와 데이터 센터의 신호

IEA의 보고서는 데이터 센터의 확장을 미국 전력 수요의 주요한 개별 동인으로 짚습니다. 보고서는 투자 규모를 다음과 같이 기술합니다: "인공지능 및 데이터 센터에 대한 투자는 계속 가속화되고 있으며, 메타(Meta), 아마존(Amazon), 알파벳(Alphabet), 마이크로소프트(Microsoft)와 같은 기업들은 2025년에 전년도 2,300억 달러에서 증가한(+39%) 3,200억 달러를 지출하기로 약속했다" (IEA 2025, 13). 이 수치는 엔비디아 데이터 센터 부문의 수주 파이프라인을 직접 설명합니다.

 

소비 측면에서 IEA는 자체 발행한 이전 보고서 '에너지와 AI(Energy and AI)'를 근거로 미국의 데이터 센터 추정치를 제시하며, 미국 데이터 센터가 "2024년에 약 180TWh의 전력을 소비했다"는 점과 "데이터 센터 전력 수요는 2030년까지 꾸준히 증가할 것으로 예상되며, 소비량은 2024년 수준 대비 약 240TWh 증가할 것으로 전망된다"는 점에 주목합니다 (IEA 2025, 13–14). 수치가 어느 정도인지 감이 안 잡힌다면, 240TWh는 중간 규모 유럽 국가의 연간 전력 소비량에 맞먹는 수치입니다. 이 전력을 소비하는 GPU 밀집형 인프라의 대부분은 엔비디아의 하드웨어입니다.

 

b. 미국 거시 전력 수요 성장

IEA는 미국의 전력 수요가 2024년에 2.1% 성장했으며, 2025년에는 2.3%, 2026년에는 2.2% 성장할 것으로 전망합니다. IEA는 이 수치들을 "지난 10년간의 평균 성장률보다 두 배 이상 높은 수치"라고 명시합니다 (IEA 2025, 13). 기구는 이러한 추세를 상회하는 성장의 원인을 "2025년과 2026년 모두에서 나타나는 데이터 센터의 급격한 확장" 덕분으로 돌립니다 (IEA 2025, 11). 또한 IEA는 미국의 총 전력 수요가 2024년 4,112TWh에서 2025년 4,204TWh, 2026년 4,296TWh로 증가할 것으로 기록하고 있으며 (IEA 2025, 29), 데이터 센터 주도의 수요가 부차적인 통계적 산물이 아니라 국가 에너지 계획의 실질적인 구성 요소임을 재확인시켜 줍니다.

 

이 데이터가 그리는 구조는 단순합니다. 빅테크들의 자본 지출 약정(2025년 3,200억 달러)은 GPU 구매 주문으로 직접 전환되고, GPU 밀집형 데이터 센터는 전력 수요 성장을 창출하며, 그 결과로 나타나는 AI의 작업량 증가는 추가적인 인프라 투자를 정당화합니다.


Section III. 하드웨어 로드맵: 다세대 노후화 관리(Multi-Generational Obsolescence Management)

 

엔비디아 사업 모델에 대한 가장 흔한 반론은 플랫폼 파괴 리스크입니다. 즉, 경쟁사가 엔비디아의 가격 결정력이나 시장 점유율을 침식할 수 있는 대안 GPU 아키텍처를 개발할 가능성입니다. 이에 대한 엔비디아의 대응은 스스로 제품의 노후화 속도를 가속화하는 것입니다. 

 

8-K 공시는 루빈 플랫폼의 수치를 다음과 같이 제시합니다: "[엔비디아는] 엔비디아 블랙웰(Blackwell) 플랫폼 대비 추론 토큰 비용(인공지능이 답변을 한 글자마다 내뱉을 때 드는 비용)을 최대 10배 절감할 수 있는 6개의 신규 칩으로 구성된 엔비디아 루빈 플랫폼을 공개했다" (NVIDIA Corporation 2026a).

 

블랙웰 플랫폼 자체도 이미 상당한 성능 향상을 입증한 바 있습니다: "엔비디아 블랙웰 울트라(Blackwell Ultra)는 에이전틱 AI(agentic AI) 분야에서 엔비디아 호퍼(Hopper) 플랫폼 대비 최대 50배 뛰어난 성능과 35배 낮은 비용을 제공한다" (NVIDIA Corporation 2026a). <호퍼 → 블랙웰 → 블랙웰 울트라 → 베라 루빈>으로 이어지는 플랫폼 시퀀스는 이전 세대 하드웨어의 구조적 가치 하락을 유도하며, 빅테크, 클라우드 제공업체 및 기업 고객들로 하여금 지속적인 재투자를 강요합니다.

 

엔비디아 플랫폼이란?

엔비디아를 반도체 칩(하드웨어) 제조사로만 알고 계실지 모르지만, 시장이 평가하는 엔비디아의 정체성은 '플랫폼'입니다. 이를 쉽게 말하자면, 애플이 구축한 스마트폰 생태계와 구조가 비슷하다고 보면 됩니다.

하드웨어(iPhone): 최신 기능을 갖춘 강력한 기기 그 자체입니다. (섹션 III의 로드맵)
소프트웨어(iOS & App Store): 그 기기 위에서 돌아가는 운영체제와 수많은 앱들입니다. (CUDA 언어)
연결 기술(iCloud & Airdrop): 기기 간의 데이터를 매끄럽게 공유하게 합니다. (NVLink)

단순히 성능 좋은 스마트폰을 만든다고 해서 사람들이 아이폰을 쓰는 것이 아니라, 그 안의 앱들과 익숙한 운영체제 때문에 아이폰을 떠나지 못하는 것과 같습니다. 엔비디아 역시 [강력한 칩 + 전용 언어 + 초고속 연결망]을 하나의 패키지로 묶어, 전 세계 AI 개발자들이 이 생태계 안에서만 놀 수밖에 없도록 거대한 성벽을 쌓은 것입니다.

 

아마존 웹 서비스(AWS), 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure), 오라클 클라우드 인프라스트럭처(OCI) 등 4대 주요 클라우드 제공업체는 동일한 공시 자료에서 "베라 루빈 기반 인스턴스를 최초로 도입할 기업들 중 하나"로 확인되었습니다 (NVIDIA Corporation 2026a). 현재 이들 4개 제공업체 모두 블랙웰 인스턴스를 제공하고 있습니다. CUDA 스택, NVLink, 에코시스템 툴이 하이퍼스케일러의 인프라 계획 주기에 이미 내장되어 있기 때문입니다.

 

2025년 9월 22일 발표되고 공식 엔비디아 뉴스룸을 통해 확인된 오픈AI와의 파트너십은 이 로드맵을 다년 계약으로 못박습니다: "첫 1기가와트(GW) 규모의 엔비디아 시스템은 2026년 하반기에 엔비디아 베라 루빈 플랫폼을 기반으로 구축될 예정이다" (NVIDIA Corporation 2025). 도입되는 기가와트당 점진적으로 구조화된 엔비디아의 대(對) 오픈AI 최대 1,000억 달러 투자 약속은, 단순한 거래적 고객 관계를 공동 투자 의존 관계로 전환합니다. 오픈AI의 차세대 모델 학습은 베라 루빈의 가용성을 명시적 전제 조건으로 하고 있습니다.

 

c.f. CUDA: 엔비디아 전용 AI 언어라 보시면 됩니다. 전 세계 개발자들이 지난 15년간 쌓아온 AI 학습 도구와 코드가 모두 이 언어로 쓰여 있습니다. 타사의 칩을 쓰려면 완전히 새로운 언어를 배워서 다시 짜야 합니다. 이 전환 비용의 번거로움이 개발자들을 엔비디아 제품에 묶어두는 원동력입니다.

c.c.f. NVLink: 인공지능의 연산력은 하나의 GPU로 감당되는 수준이 아닙니다, 그래서 엔비링크는 수만 개의 GPU를 하나로 이어줘서 하나의 뇌처럼 작동하게 만든다고 보시면 됩니다. 


Section IV. 전략적 파트너십과 자본 배치: 에코시스템 락인(Lock-in) 구축

 

8-K에 나열된 파트너십 목록은 하나의 패턴을 공유합니다. 전환 비용이 높은 핵심 워크플로우에 엔비디아 플랫폼을 심는 것입니다.

엔비디아의 ai 인프라 생태계

 

a. 빅테크 및 파운데이션 모델 계층

회사는 메타(Meta)와 온프레미스(메타의 자체 서버), 클라우드 및 AI 인프라를 아우르는 다년 및 다세대 전략적 파트너십을 공식화했으며, 여기에는 엔비디아 CPU, 네트워킹 및 수백만 개의 엔비디아 블랙웰 및 루빈 GPU의 대규모 배치가 포함된다고 밝혔습니다 (NVIDIA Corporation 2026a).

 

여기서 다세대(multigenerational)라는 표현은, 메타의 인프라 계획이 그때그때 시장에서 사 오는 방식이 아니라, 엔비디아의 차기 하드웨어 출시 일정과 조율되어 있음을 의미합니다. 이와 병행하여 앤스로픽(Anthropic)과의 투자 및 파트너십도 공개되었으며, 앤스로픽은 엔비디아 시스템으로 구동되는 마이크로소프트 애저에서 클로드(Claude) 모델을 확장하고 있습니다 (NVIDIA Corporation 2026a).

 

파운데이션 모델이란,
모든 AI 서비스의 '기반(Foundation)'이 되는 거대 AI를 뜻합니다.

건물을 지을 때 가장 먼저 땅을 다지고 기초 공사를 하듯, 챗GPT 같은 서비스가 탄생하기 위해서는 먼저 방대한 데이터를 학습한 거대한 인공지능 몸체가 필요합니다. 이 몸체를 만드는 데는 수만 개의 엔비디아 GPU와 수개월의 시간이 소요됩니다.

메타의 'Llama'나 앤스로픽의 'Claude' 같은 것들이 바로 이 파운데이션 모델이며, 엔비디아 입장에서는 이 거대한 기초 공사를 하는 기업들이야말로 가장 크고 중요한 핵심 고객입니다. 이들이 엔비디아의 하드웨어와 소프트웨어를 표준으로 삼는다는 것은, 그 위에 지어지는 수만 개의 AI 앱들 또한 엔비디아 생태계에 종속됨을 의미합니다.
 

b. 피지컬 AI 및 로보틱스

동일한 공시에서 공개된 코스모스(Cosmos) 및 아이작(Isaac) GR00T 오픈 모델은 피지컬 AI를 위한 인프라로 묘사됩니다. 여기에는 보스턴 다이내믹스(Boston Dynamics), 캐터필러(Caterpillar), 프랑카 로보틱스(Franka Robotics), LG전자, 뉴라 로보틱스(NEURA Robotics) 등이 도입 사례로 인용되었습니다 (NVIDIA Corporation 2026a). 지멘스(Siemens)와 산업용 AI 운영 체제"구축을 위한 전략적 파트너십 확대, 그리고 다쏘시스템(Dassault Systèmes)과 가상 트윈(가상세계에 구현한 실제 공장)을 구동하는 산업용 AI 플랫폼을 위한 파트너십은, 엔비디아가 데이터 센터 밖으로도 움직이고 있다는 신호입니다 (NVIDIA Corporation 2026a).

 

c. 생명공학

일라이 릴리(Eli Lilly)와 AI 시대의 신약 개발 혁신을 위한 공동 연구소 설립, 그리고 컴퓨터 시뮬레이션을 활용한 생물학 및 신약 개발 플랫폼인 엔비디아의 바이오니모(BioNeMo)의 대대적 확장은 가속 컴퓨팅을 계산 생물학의 기반 인프라로 심으려는 시도입니다 (NVIDIA Corporation 2026a).

 

d. 인프라 및 에너지

엔비디아가 미국 에너지부의 제네시스 미션(Genesis Mission)에 민간 파트너로 합류했다는 사실(NVIDIA Corporation 2026a)은, 달리 말하면 미국 정부의 AI 인프라 설계도 안에 엔비디아가 들어간 것입니다. 즉, 공공 조달과 규제 환경에서 엔비디아가 내부자가 되었음을 의미합니다. 또한, "2030년까지 5기가와트 이상의 AI 팩토리 구축"을 목표로 하는 코어위브(CoreWeave)와의 협력(NVIDIA Corporation 2026a)은,  파트너 계약만으로도 향후 수요의 윤곽은 이미 잡혀 있음을 보여줍니다.


Section V. 5,000억 달러 규모의 미국 내 전략적 기지 이전

 

2025년 운영 측면에서 가장 큰 변화는 미국 내 제조 개시입니다. 이 전략은 공급망 집중 리스크, 대만 해협의 지정학적 노출, 관세 압박이라는 세 문제를 한 번에 건드리는 선택입니다.

 

향후 4년 내에 엔비디아는 TSMC, 폭스콘, 위스트론, 앰코, SPIL과의 파트너십을 통해 미국 내에서 최대 5,000억 달러 규모의 AI 인프라를 생산할 계획입니다 (NVIDIA Corporation 2025b). 회사는 아리조나주에서 엔비디아 블랙웰 칩을, 텍사스주에서 AI 슈퍼컴퓨터를 제조 및 테스트하기 위해 100만 평방피트 이상의 제조 공간을 확보했습니다. 특히 휴스턴과 달라스의 슈퍼컴퓨터 제조 공장은 향후 12~15개월 내에 본격적인 양산에 돌입할 것으로 예상됩니다 (NVIDIA Corporation 2025b).

 

TSMC의 아리조나주 피닉스 시설에서 블랙웰 웨이퍼의 대량 생산은 2025년 10월에 시작되었습니다. 젠슨 황은 이 행사를 기념하며 다음과 같이 언급했습니다: "세계 AI 인프라의 엔진이 사상 처음으로 미국에서 제조되고 있다. 미국 내 제조를 추가함으로써 우리는 AI 칩과 슈퍼컴퓨터에 대한 엄청나고 증가하는 수요를 더 잘 충족할 수 있게 되었으며, 공급망을 강화하고 회복 탄력성을 높일 수 있게 되었다" (NVIDIA Corporation 2025b).

 

지정학적 함의는 두 가지입니다. 2026 회계연도 연말 가이던스는 사업이 불확실한 중국발 데이터 센터 매출이 아예 포함되지 않은 수치로 (NVIDIA Corporation 2026a), 만약 수출 통제가 일부 풀리거나 미중 긴장이 완화된다면 매출에 플러스 알파가 될 수 있습니다. 하지만 기약 없는 현 상황에서 엔비디아는 중국 매출을 기다리지 않기로 했습니다. 미국 내 제조 거점 확보는 지속되는 수출 통제나 양안관계의 파탄으로 인한 대만 공급망 중단 리스크에 대한 노출을 완화시키기 때문입니다. 부수적인 효과로, 아리조나와 텍사스주의 노동력과 공급업체 생태계가 엔비디아의 성장에 직접적인 경제적 이해관계를 갖게 됨으로써, 회사가 미국 내 대규모 프로젝트를 가동할 시 정치적 지지 기반이 자동으로 형성되는 구조입니다.


Section VI. 구조적 해자, 향후 리스크, 그리고 시장 지위에 관한 고찰

 

여기까지의 데이터는 하나의 명제로 수렴합니다. 엔비디아는 AI 자본 지출 붐을 타는 것이 아니라 그 붐의 조건을 직접 만들고 있습니다.

 

직전 3개년 누적액 약 300억 달러 대비 2026 회계연도 단일 연도에만 185억 달러를 쏟아붓는 R&D 집중도는, 경쟁사의 자본 사이클이 따라오기 전에 격차를 벌리는 속도전입니다. 메타(Meta), 코어위브(CoreWeave), 오픈AI(OpenAI) 등과 맺은 다세대 파트너십 구조는 단일 제품 사이클을 훨씬 넘어서는 확정된 수요 파이프라인을 생성합니다. 또한 전력수요에 대한 IEA의 보고서는 엔비디아 칩에 대한 수요가 앞으로도 견고할 것임을 확인시켜 주며, 미국 내 제조기지 확충은 정치적 변수로 인한 공급망 리스크를 줄일 수 있습니다. 물론, 미국 내의 높은 인건비가 기존의 높은 마진율을 유지하게 만들 지는 지켜보아야 합니다.

 

2027 회계연도 1분기 전망은 중국 데이터 센터 매출을 제외하고 있는데, 중국이라는 거대한 시장에서 발생할 수 있는 매출 기회를 현재로서는 포기하고 있음을 의미합니다. 또한 IEA 데이터는 칩의 수급이 아닌 '데이터 센터의 전력 제약'이 인프라 확장의 실질적인 병목 현상이 될 수 있음을 시사합니다. 아울러 베라 루빈 플랫폼의 추론 비용 절감은 동전의 양면과도 같습니다. 첫째, 고객사들이 동일한 작업을 처리하는 데 필요한 총 하드웨어 지출 규모를 줄이게 되는 결과를 낳을 수도 있습니다. 둘째, LED 다이오드가 등장하고 오히려 사용량이 많아져서 전력 소비량이 줄지 않았듯이, 토큰의 절약이 더 많은 분야의 AI 수요로 이어질 수 있습니다.

 

하지만 이 리스크들이 엔비디아의 구조적 지위를 흔들 가능성은 낮습니다. 하드웨어 우위, CUDA 락인, 다세대 파트너십, 본토 제조 기반. 이 네 축을 동시에 복제한 경쟁사는 아직 없습니다.

 

다음 글: https://prag-thinktank.tistory.com/10

 

[AI 인프라 해체 #02] 팔란티어(PLTR): 저들만 아는 비밀이 네게 들리지 않을 것이 없으리라

Abstract본 보고서는 미국 증권거래위원회 공시를 기반으로, 팔란티어(PLTR)의 2025 회계연도 성과를 분석하여, 회사가 단순한 성장의 단계를 넘어 실질적 수익 모델을 안착시켰음을 입증한다.2025 회

prag-thinktank.tistory.com


Source Credibility and Tier Classification (출처 신뢰성 및 신뢰등급)

Source
Tier
Grade
Evidentiary Note
NVDA Form 8-K, Q4 FY2026
Tier 1 — SEC EDGAR
A+
Mandatory regulatory disclosure; fetch-verified this session
NVDA Form 10-K, FY2026
Tier 1 — SEC EDGAR
A+
Annual statutory filing; fetch-verified this session
NVIDIA Newsroom (OpenAI PR)
Company Primary Disclosure
A
Official press release; fetch-verified this session
NVIDIA Blog (US Manufacturing)
Company Primary Disclosure
A
Official corporate channel; fetch-verified this session
IEA, Electricity Mid-Year Update 2025
Tier 1 — IEA
A+
User-supplied full PDF; all excerpts document-verified

Bibliography(참고문헌)

 

International Energy Agency (IEA). 2025. Electricity Mid-Year Update 2025. Paris: IEA, July 2025. Prepared by the Gas, Coal and Power Markets Division, Directorate of Energy Markets and Security. Licence: CC BY 4.0. Website: https://www.iea.org/reports/electricity-mid-year-update-2025

 

NVIDIA Corporation. 2025a. "OpenAI and NVIDIA Announce Strategic Partnership to Deploy 10 Gigawatts of NVIDIA Systems." NVIDIA Newsroom, September 22, 2025. https://nvidianews.nvidia.com/news/openai-and-nvidia-announce-strategic-partnership-to-deploy-10gw-of-nvidia-systems.

 

NVIDIA Corporation. 2025b. "NVIDIA to Manufacture American-Made AI Supercomputers in US for First Time." NVIDIA Blog, April 14, 2025. https://blogs.nvidia.com/blog/nvidia-manufacture-american-made-ai-supercomputers-us/.

 

NVIDIA Corporation. 2026a. "NVIDIA Announces Financial Results for Fourth Quarter and Fiscal 2026." Form 8-K, Exhibit 99.1. Filed February 25, 2026. U.S. Securities and Exchange Commission EDGAR. https://www.sec.gov/Archives/edgar/data/1045810/000104581026000019/q4fy26pr.htm.

 

NVIDIA Corporation. 2026b. Annual Report on Form 10-K for the Fiscal Year Ended January 25, 2026. Filed February 25, 2026. U.S. Securities and Exchange Commission EDGAR. https://www.sec.gov/Archives/edgar/data/1045810/000104581026000021/nvda-20260125.htm.

반응형