NVIDIA Grace Blackwell · AI Workstation

MSI
XpertStation
WS300P

AI 시대를 위한 최고 성능 워크스테이션

NVIDIA GB300 Grace Blackwell Ultra를 탑재한 차세대 AI 슈퍼컴퓨터.
20 PFLOPS FP8 · 748GB 통합 메모리 · 4.8TB/s 대역폭으로
H200 4장 구성을 단일 타워에서 초과 달성합니다.

MSI XpertStation WS300P
20 PFLOPS
FP8 AI 연산 성능
748 GB
통합 메모리 (Grace+GPU)
35~45 dB
운영 소음 (도서관 수준)
1,600 W
TDP 전력 (수랭+공랭 내장)
₩180M
국내 도입가 (출고가 $110,000)
서버실 0
추가 인프라 비용 없음

AI 워크로드를 위한
완벽한 플랫폼

산업 최고 수준의 부품 구성으로 AI 연구·개발, 고성능 컴퓨팅, 전문 시각화 워크로드를 모두 처리합니다.

🧠
NVIDIA Grace Blackwell
Grace CPU와 Blackwell GPU가 NVLink로 통합된 슈퍼칩. 비교 불가한 AI 추론 및 학습 성능을 제공합니다.
❄️
듀얼 라디에이터 액체냉각
고성능 수랭 시스템과 2개의 대형 라디에이터로 최고 부하에서도 안정적인 온도를 유지합니다.
1600W ATX 파워
산업용 1600W 파워 서플라이로 GPU·CPU·스토리지에 안정적인 전력을 공급합니다.
🔌
PCIe 5.0 확장
Double-Wide 슬롯 1개 + Single-Wide x8 슬롯 2개로 최신 GPU·스토리지·네트워크 카드를 모두 수용합니다.
🌐
초고속 네트워크
40GbE 포트 2개와 100GbE·1GbE 포트를 내장해 데이터센터급 네트워크 대역폭을 지원합니다.
🏆
전문가용 설계
풀타워 메시 케이스로 우수한 기류를 확보하고, MSI 전문가 보증으로 기업 환경에 최적화됩니다.
NVIDIA BLACKWELL ARCHITECTURE

GB300 — 차세대 AI 컴퓨팅의 핵심

WS300P의 심장인 NVIDIA GB300 칩은 블랙웰 아키텍처의 정점으로, 역대 가장 강력한 AI 가속기입니다.

20 PFLOPS
FP8 AI 연산 성능
(시스템 전체)
748 GB
통합 메모리
(Grace+GPU 단일 주소 공간)
4.8 TB/s
통합 메모리
대역폭
208B
트랜지스터 수
(듀얼 다이 구성)
900 GB/s
NVLink-C2C
Grace ↔ GPU 대역폭
1.8 TB/s
NVLink 5.0
GPU 간 대역폭
TSMC 4NP
공정 노드
(듀얼 다이 패키징)
PCIe 6.0
호스트 인터페이스
최신 세대
2nd Gen
2세대 트랜스포머 엔진
FP4 · FP6 정밀도를 새롭게 지원해 LLM 추론 속도를 이전 세대 Hopper 대비 최대 5배 향상. FP8 Tensor Core도 대폭 강화되어 학습과 추론 모두 최고 효율을 발휘합니다.
5th Gen NVLink
🔗
NVLink 5.0 고속 인터커넥트
양방향 1.8TB/s의 폭발적인 GPU 간 대역폭을 제공. 멀티-GPU 병렬 추론 시 PCIe 병목을 완전히 제거하며, 모델 샤딩(sharding)과 텐서 병렬화를 극적으로 가속합니다.
NVLink-C2C
🧠
Grace CPU 직결 통합 (슈퍼칩)
Grace ARM CPU와 GB300 GPU를 NVLink-C2C 칩-투-칩 인터페이스로 900GB/s 초고속 연결. CPU 메모리와 GPU HBM3e가 단일 주소 공간에서 작동해 데이터 복사 오버헤드를 제거합니다.
192 GB HBM3e
💾
대용량 HBM3e 고대역폭 메모리
GPU당 192GB HBM3e를 탑재해 700B+ 파라미터 초대형 모델도 단일 시스템에서 온-디바이스 추론 가능. 8TB/s의 메모리 대역폭으로 메모리 바운드 워크로드 병목을 해소합니다.
엔터프라이즈 보안
🔒
컨피덴셜 컴퓨팅 지원
하드웨어 TEE(신뢰 실행 환경) 기반 Confidential Computing을 GPU 레벨에서 지원. 암호화된 상태로 AI 모델을 실행해 클라우드·공유 환경에서도 지적재산권과 민감 데이터를 보호합니다.
엔터프라이즈 신뢰성
🛡️
고급 RAS 기능
Reliability · Availability · Serviceability 기능이 대폭 강화되어 메모리 오류 정정, 예측적 장애 감지, 동적 스로틀링 등을 지원. 24/7 무중단 AI 워크로드에 최적화된 엔터프라이즈 등급 안정성을 보장합니다.
GRACE CPU
Grace
ARM Neoverse V2 기반
72코어 고성능 CPU
LPDDR5X 480GB
최대 546GB/s 대역폭
통합 748GB 단일 주소공간
BLACKWELL GPU
GB300
208B 트랜지스터 (듀얼 다이)
HBM3e 192GB / 8TB/s
FP8 20 PFLOPS (시스템)
TSMC 4NP 공정

Technical Specifications

산업 최고 수준의 부품으로 구성된 WS300P의 전체 사양을 확인하세요.

프로세서 · GPU
CPUNVIDIA Grace (ARM-based)
GPUNVIDIA Blackwell
연결NVLink 통합 슈퍼칩
메모리NOCAMM 규격
전원 · 냉각
PSU1600W ATX
냉각액체냉각 (수랭)
라디에이터듀얼 라디에이터
폼팩터Full Tower ATX
확장 슬롯
슬롯 1Double-Wide PCIe 5.0 x16
슬롯 2~3Single-Wide PCIe 5.0 x16 (x8 sig.) × 2
네트워크 (후면)
40GbE× 2 포트
100GbE× 1 포트
1GbE× 1 포트
기타Mini DP, USB COM
후면 USB
USB 3.1× 2 포트 (Type-A)
USB 3.1× 2 포트
Audio오디오 포트
전면 I/O
USB 2.0× 1 (Type-A)
USB 3.0× 1 (Type-A)
USB 3.1Type-C × 2
오디오3.5mm 헤드셋 포트
버튼전원(LED), HDD LED, 리셋

H200 GPU 서버 4장 대비
WS300P가 유리한 이유

동등 이상의 AI 추론 성능을 제공하면서, 초기 도입 비용부터 운영 유지비까지 모든 면에서 압도적으로 유리합니다.

💡
MSI XpertStation WS300P는 NVIDIA GB300 Grace Blackwell Ultra를 탑재해 단일 칩으로 20 PFLOPS FP8 · 748GB 통합 메모리 · 4.8TB/s 대역폭을 구현합니다. H200 4장(HGX H200 4-GPU)을 초과하는 성능을 타워형 PC 크기 · 서버실 완전 불필요 · 35~45dB 도서관 수준 소음으로 달성합니다.
WS300P 국내 도입가
₩180,000,000
출고가 $110,000 · 환율·물류비 반영
서버실·인프라 추가 비용 없음
H200 × 4 서버 예상 도입가
₩448,000,000+
GPU 카드 + 서버 본체 (~$280,000+)
랙·네트워크·서버실 구축비 별도
3년 TCO 기준 절감액
~₩4.8억
WS300P ₩211M vs H200 ₩693M
운영비 포함 약 70% 절감
비교 항목 MSI WS300P
Grace Blackwell
H200 × 4 GPU 서버
HGX H200 구성
AI 추론 성능 (FP8) 20 PFLOPS — H200 ×4 초과 우위 ~16 PFLOPS (H200 ×4 기준)
통합 메모리 748 GB (Grace+GPU 단일 주소) 우위 GPU 564GB HBM3e (분리 구성)
초기 도입 비용 ₩180,000,000 ($110K 출고·환율·물류 반영) ~60% 절감 ₩448,000,000+ (~$280K+)
소비 전력 (TDP) 1,600W 절반 이하 2,800W+ (GPU만 ~700W ×4)
연간 전기요금 (24시간) ₩1,680,000/년 대폭 절감 ₩2,928,000/년 이상
소음 35~45 dB (도서관 수준) 쾌적 75~85 dB (공장 기계 수준)
크기 / 무게 타워PC 수준 / ~30 kg 간편 4U 랙마운트 / 70~90 kg + 랙
서버실 / IDC 완전 불필요 — 사무실 설치 가능 ₩0 전용 서버실 필수 (₩50M~ 구축)
냉각 인프라 수랭+공랭 하이브리드 내장 절감 항온항습 설비 별도 (₩10M~)
전력 인프라 220V 단상 — 일반 콘센트 가능 절감 3상 전력 + 전기공사 (₩15M~)
네트워크 스위치 불필요 (내장 40GbE ×2) 절감 InfiniBand / 고속 스위치 별도
설치 / 운영 난이도 워크스테이션 수준 간편 서버 관리자 / 인프라팀 필요
3년 TCO (총소유비용) ₩211,040,000 약 70% 절감 ₩692,784,000~

물리적 환경 비교 — PHYSICAL & ENVIRONMENT

📐
사이즈 / 무게
✅ WS300P 타워PC 수준 (약 250×500×550mm) · 약 30 kg
❌ H200 서버 4U 랙마운트 (482×175×800mm) · 70~90 kg + 랙 별도
🔊
소음
✅ WS300P 35~45 dB — 도서관 수준 · 사무실 공존 가능
❌ H200 서버 75~85 dB — 공장 기계 수준 · 방음 공간 필수
🌡️
발열 / 냉각
✅ WS300P 1,600W TDP · 수랭+공랭 하이브리드 자체 내장
❌ H200 서버 2,800W+ TDP · 고압 강제공냉 · 항온항습 필수
전력 / 설치
✅ WS300P 220V 단상 — 일반 콘센트로 즉시 설치 가능
❌ H200 서버 3상 전력 필수 · 분전반·UPS 전기공사 (₩15M~)

서버실 운영 차이 — SERVER ROOM REQUIREMENT

✅ WS300P — 서버실 완전 불필요
  • 🟢 일반 사무실 책상 옆 설치 가능
  • 🟢 데이터 보안 — 외부 IDC 없이 사내 완전 격리
  • 🟢 서버실 구축비 ₩0
  • 🟢 추가 운영 인력 불필요
  • 🟢 연간 IDC/냉방 운영비 없음
❌ H200 서버 — 전용 서버실 필수
  • 🔴 항온항습 · 3상 전력 · 보안 설비 구축 필요
  • 🔴 서버실 구축비 ₩50,000,000~
  • 🔴 연간 IDC 코로케이션 ₩12,000,000~
  • 🔴 연간 냉방 운영비 ₩6,000,000~
  • 🔴 서버실 전담 관리 인력 필요

전체 비용 분석 — FULL COST BREAKDOWN

■ 초기 구축 비용 (CAPEX)
항목 WS300P H200 × 4 서버 비고
본체 / 하드웨어₩180,000,000₩448,000,000출고가 $110K · 환율·물류비 반영
서버실 구축불필요 ✓₩50,000,000~항온항습·랙·3상공사
전력 인프라일반 콘센트 ✓₩15,000,000~3상 분전반·UPS
냉각 시스템자체 내장 ✓₩10,000,000~항온항습기 별도
네트워크 인프라₩1,500,000₩15,000,000~IB 스위치·케이블
설치 / 셋업₩500,000₩8,000,000~랙 마운트 설치공사
구축 합계 ₩182,000,000 ₩546,000,000~ WS300P 약 4배 저렴
■ 연간 운영 비용 (OPEX)
항목 WS300P H200 × 4 서버 비고
전력 소비₩1,680,000₩2,928,0001.6kW vs 2.8kW
서버실 냉방·운영해당없음 ✓₩6,000,000~항온항습 연간 운영
IDC 코로케이션사무실 내 설치 ✓₩12,000,000~IDC 랙 월 100만~
유지보수₩3,000,000₩10,000,000~엔터프라이즈 서포트
SW 라이선스₩5,000,000₩8,000,000~NVIDIA AI Enterprise
인프라 IT 인력최소화 가능 ✓₩10,000,000~서버실 관리 전담인력
연간 운영 합계 ₩9,680,000 ₩48,928,000~ WS300P 5배 저렴
3년 TCO 합계 ₩211,040,000 ₩692,784,000~ 약 ₩4.8억 절감

WS300P 선택의 6가지 핵심 이점

💰
초기 비용 75% 절감
H200 ×4 서버 대비 약 $90,000 이상 절감. GPU 카드, 서버 본체, 랙 장비, 네트워크 스위치 비용 모두 불필요합니다.
전력 소모 60% 절감
최대 1,600W로 H200 ×4 구성(4,000W+) 대비 전력을 크게 아낍니다. 연간 전기요금 절감액만 수백만원에 달합니다.
🏢
서버룸 없이 사무실 설치
풀타워 워크스테이션 폼팩터로 일반 사무 환경에 설치 가능. 별도 데이터센터 계약·임대비용이 발생하지 않습니다.
🔧
관리 인력 최소화
서버 관리자 없이 일반 IT 담당자 수준에서 운영 가능. 전담 인프라팀 유지 비용을 줄일 수 있습니다.
❄️
냉각 인프라 추가 불필요
내장 듀얼 라디에이터 수랭으로 자체 냉각 완결. 데이터센터 냉방 설비 증설·유지 비용이 발생하지 않습니다.
🚀
즉시 도입·즉시 활용
랙 설치, 네트워크 배선, OS 서버 설정 없이 빠르게 AI 개발 환경을 구축. 프로젝트 착수 시간을 획기적으로 단축합니다.

엔지니어링의 정수

고급 부품과 세심한 레이아웃 설계로 최상의 성능과 안정성을 보장합니다.

메인보드
Grace Blackwell 메인보드
NOCAMM 메모리 슬롯과 PCIe 5.0 확장 슬롯을 갖춘 전문가용 메인보드 레이아웃.
수랭
듀얼 라디에이터 수랭
2개의 대형 라디에이터와 고성능 펌프로 장시간 최고 부하에서도 안정적인 냉각 성능.
내부 레이아웃
최적화된 기류 설계
Grace CPU와 Blackwell GPU 위치, PSU 배치를 통한 체계적인 에어플로우 최적화.

풍부한 I/O 포트

전면과 후면에 걸쳐 다양한 포트를 제공해 모든 주변기기와 네트워크를 빠르게 연결합니다.

전면 I/O

전면 I/O 패널

전면 포트 구성

  • USB 2.0 Type-A × 1 — 일반 주변기기 연결
  • USB 3.0 Type-A × 1 — 고속 스토리지 연결
  • USB 3.1 Type-C × 2 — 최신 기기 고속 연결
  • 3.5mm 오디오 (헤드폰 + 마이크)
  • 전원 버튼 (LED 표시등 내장)
  • HDD 활동 LED / 리셋 버튼

후면 네트워크 포트

  • 40GbE 포트 × 2 — 데이터센터급 초고속 네트워크
  • 100GbE 포트 × 1
  • 1GbE 포트 × 1
  • USB 3.1 × 2, Mini DisplayPort, USB COM

도입 전 궁금한 점들

기존 AI 서버 도입을 검토하는 기업들이 가장 많이 묻는 질문들을 정리했습니다.

Q. 기존에 PyTorch / TensorFlow로 개발한 코드가 그대로 작동하나요?
네, 코드 수정 없이 그대로 실행됩니다. WS300P는 NVIDIA CUDA를 완전 지원하므로, A100·H100·H200에서 작동하던 PyTorch, TensorFlow, JAX 코드를 수정 없이 바로 실행할 수 있습니다.

NVIDIA의 NGC(NVIDIA GPU Cloud) 컨테이너를 사용하면 프레임워크 설치·버전 충돌 없이 전원 켜고 바로 AI 코드를 돌릴 수 있는 환경이 갖춰집니다.
💡 "기존 클라우드 GPU(A100)에서 개발한 모델 학습 코드 → WS300P에서 바로 실행 가능"
Q. 설치하고 AI 환경 세팅하는 데 얼마나 걸리나요?
당일 설치, 당일 가동이 가능합니다. 기존 GPU 서버는 CUDA 설치 → 드라이버 충돌 해결 → 프레임워크 설치 → 환경변수 설정 등 2~5일이 걸리는 작업이 필요합니다.

WS300P는 NVIDIA NGC 컨테이너가 미리 구성되어 있어, 전원 연결 후 NGC 카탈로그에서 원하는 AI 환경을 클릭 한 번으로 실행합니다. PyTorch·TensorRT·Triton Inference Server 등 모든 AI 프레임워크가 최적화된 상태로 즉시 사용 가능합니다.
💡 전통적 GPU 서버 셋업: 2~5일 → WS300P: 전원 켜고 클릭 한 번, 수 분 이내 가동
Q. 서버 관리 전담 인력이 없어도 운영할 수 있나요?
일반 IT 담당자 수준으로 충분합니다. GPU 서버는 RAID 구성, 네트워크 스위치, OS 업데이트, 드라이버 관리, 서버실 모니터링 등 전담 인프라 엔지니어가 필요합니다.

WS300P는 워크스테이션 수준의 운영 편의성을 제공합니다. NVIDIA AI Enterprise 소프트웨어 스택이 통합되어 있고, MSI 전문 기술 지원이 포함되어 있습니다. 별도의 서버실 관리, 냉각 설비 점검, 전원 이중화 관리가 필요 없습니다.
💡 서버 인프라팀 연봉 기준 연간 약 ₩5,000만~1억 절감 효과
Q. 전용 서버실이 없는데 회사 사무실에 설치할 수 있나요?
사무실 책상 옆에 설치 가능합니다. WS300P는 35~45 dB 도서관 수준 소음으로, 일반 사무 공간에서 동료와 함께 사용해도 불편함이 없습니다. H200 서버의 75~85 dB(공장 기계 소음)와 비교하면 압도적 차이입니다.

전력도 220V 단상 일반 콘센트로 바로 연결됩니다. 3상 전력 공사, 분전반 교체, UPS 설치 등 GPU 서버 도입 시 필수적인 전기공사(₩1,500만~) 비용이 전혀 들지 않습니다.
💡 항온항습 서버실 구축비 ₩5,000만~ 완전 제거, 일반 콘센트에 바로 꽂으면 끝
Q. 클라우드 GPU(AWS, Azure, GCP)와 비교하면 어느 쪽이 유리한가요?
AI를 상시 사용하는 기업은 WS300P가 2~3년 기준 압도적으로 유리합니다.

AWS p4d.24xlarge(A100 × 8) 기준 시간당 약 $32, 연간 24시간 풀가동 시 약 $280,000(약 ₩3.6억)에 달합니다. WS300P 3년 TCO ₩2.1억 대비 클라우드는 1년 만에 역전됩니다.

또한 클라우드는 데이터가 외부 서버에 저장되므로 기밀 데이터·독점 모델 보호에 취약합니다. WS300P는 사내 완전 격리로 데이터 보안을 100% 자체 통제합니다.
💡 연간 AI 컴퓨팅 비용이 ₩5,000만 이상이라면 WS300P 1대가 더 경제적
Q. LLaMA, GPT 계열 대형 모델(LLM) 추론도 가능한가요?
네, 단일 시스템으로 대형 LLM 온-디바이스 추론이 가능합니다. WS300P의 GB300은 748GB 통합 메모리(Grace CPU 480GB + GPU HBM3e 268GB)를 단일 주소 공간으로 제공합니다.

LLaMA 3.1 70B, Mistral, Qwen 등 수백억 파라미터 모델을 클라우드 없이 온프레미스에서 직접 실행할 수 있으며, NVIDIA TensorRT-LLM으로 추론 속도를 극대화할 수 있습니다. 700B+ 초대형 모델도 단일 시스템에서 운용 가능한 수준입니다.
💡 외부 API 비용 없이 사내에서 LLM을 무제한 호출 — 데이터 유출 걱정 없음

WS300P 도입을 검토 중이신가요?

H200 4장 성능을 서버실 없이 — ₩180,000,000으로 시작하는 AI 슈퍼컴퓨터.
스타트업·연구소·중견기업을 위한 최적의 온프레미스 AI 솔루션을 전문 상담 받아보세요.