본문 바로가기
테크&과학

세계가 놀란 SKT A.X K1, 내 PC에도 설치할 수 있을까? 구체적인 방법 가이드

by 지식낚시터 2026. 1. 11.

SK텔레콤의 초거대 AI 모델 A.X K1(에이닷엑스 케이원)에 대한 관심이 정말 뜨겁네요. "이 대단한 모델을 나도 써볼 수 있을까?" 하는 궁금증을 해결해 드리기 위해, 개발자와 AI 입문자 모두를 위한 구체적인 설치 및 실행 가이드를 정리해 왔습니다.

이 모델은 무려 519B(5,190억 개)의 파라미터를 가진 거대 모델이지만, 기술의 민주화를 지향하는 오픈소스(Apache 2.0) 라이선스 덕분에 우리도 직접 만져볼 수 있습니다. 지금부터 그 단계를 하나씩 짚어보겠습니다.


첫 걸음, 허깅페이스(Hugging Face) 저장소 방문하기

SKT A.X K1 공식 모델 저장소 바로가기

 

skt/A.X-K1 · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

huggingface.co

 

가장 먼저 할 일은 세계 최대의 AI 모델 공유 플랫폼인 허깅페이스의 공식 페이지에 접속하는 것입니다. 이곳에서 모델의 가중치(Weight) 파일과 실행에 필요한 소스 코드를 확인할 수 있습니다.

A.X K1MoE(Mixture-of-Experts, 전문가 혼합) 구조를 채택하고 있어, 전체 용량은 거대하지만 추론 시에는 필요한 부분만 활성화합니다. 하지만 모델 파일 자체의 용량이 매우 크기 때문에(약 260여 개의 샤드 파일로 분할됨), 충분한 저장 공간 확보가 필수입니다.


환경 구축 및 라이브러리 설치

모델을 돌리기 위해선 먼저 파이썬(Python) 환경이 준비되어야 합니다. 다음의 과정을 따라 환경을 구축해 보세요.

  1. 필수 라이브러리 설치:pip install transformers accelerate safetensors sentencepiece
  2. 가장 기본이 되는 transformers 라이브러리와 대규모 모델 효율적 로딩을 위한 accelerate, 그리고 safetensors 등을 설치해야 합니다. 터미널(또는 CMD)에서 아래 명령어를 입력하세요.
  3. Hugging Face Hub 도구 설치:pip install huggingface_hub
  4. 모델을 효율적으로 다운로드하기 위해 CLI 도구를 설치하는 것이 좋습니다.
  5. 하드웨어 체크:
  6. A.X K1은 초거대 모델입니다. 전체 파라미터를 로드하려면 상당한 양의 VRAM(비디오 램)이 필요합니다. 일반적인 가정용 GPU 한 장으로는 버거울 수 있으므로, vLLM이나 SGLang 같은 고성능 추론 엔진을 활용하거나, 양자화(Quantization)된 버전을 기다려보는 것도 방법입니다.
반응형

Python 코드로 모델 로드 및 실행하기

준비가 끝났다면 간단한 파이썬 코드로 모델을 불러올 수 있습니다. A.X K1은 trust_remote_code=True 옵션을 사용하여 SKT가 제공하는 커스텀 모델 구조를 불러와야 합니다.

Python
 
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 1. 모델과 토크나이저 경로 설정
model_id = "skt/A.X-K1"

# 2. 토크나이저 불러오기
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)

# 3. 모델 불러오기 (메모리 최적화를 위해 bfloat16 권장)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True
)

# 4. 텍스트 생성 예시
prompt = "인공지능의 미래에 대해 한국어로 설명해줘."
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))
  • 주의사항: 모델의 Think 모드를 활용하고 싶다면 프롬프트 구성 시 특정 템플릿을 따라야 합니다. 이 모델은 복잡한 추론을 할 때 내부적으로 '생각하는 과정'을 거치도록 설계되어 있어, 더 정확한 답변을 얻을 수 있습니다.

전문가들을 위한 팁: 더 효율적인 실행 방법

개인 PC 환경에서 519B 모델을 그대로 올리는 것은 거의 불가능에 가깝습니다. 실질적으로 이 모델을 활용하고 싶은 분들은 다음과 같은 전략을 사용합니다.

  • vLLM 활용: SKT 기술 문서에 따르면 vLLM 환경에서 최적의 성능을 냅니다. 분산 추론(Tensor Parallelism)을 설정하여 여러 장의 GPU에 모델을 나누어 올리는 방식입니다.
  • 양자화(Quantization): GGUF나 EXL2 형식으로 변환된 버전을 사용하면 메모리 점유율을 획기적으로 낮출 수 있습니다. 현재 커뮤니티에서 이 작업을 진행 중인 경우가 많으니 'A.X-K1 GGUF' 등의 키워드로 검색해 보세요.

기술의 문턱을 넘는 용기

사실 초거대 AI를 내 컴퓨터에 직접 설치한다는 것은 쉬운 일은 아닙니다. 하지만 SKT가 이 거대한 지식의 창고를 오픈소스로 열어두었다는 점에 주목해야 합니다. 우리가 직접 설치하지 않더라도, 수많은 국내 개발자가 이 모델을 기반으로 더 가볍고 똑똑한 서비스들을 만들어낼 것입니다.

기술은 소유할 때보다 공유될 때 그 가치가 폭발합니다. A.X K1의 설치 방법이 조금 복잡해 보일 수 있지만, 이 과정을 통해 대한민국 AI의 심장을 직접 만져본다는 자부심을 가져보셔도 좋을 것 같습니다.

여러분의 도전을 응원합니다! 혹시 설치 과정에서 특정 에러가 발생하거나, 더 구체적인 하드웨어 사양이 궁금하시다면 언제든 댓글로 물어봐 주세요.

 

 

#AXK1설치 #SKT인공지능 #허깅페이스사용법 #AI모델다운로드 #초거대AI실행 #파이썬AI #Transformers #vLLM #SGLang #딥러닝환경구축 #MoE모델 #SK텔레콤AI #HuggingFace사용법 #A.X_K1 #오픈소스AI #AI개발자 #머신러닝 #파이토치 #GPU가속 #데이터과학 #인공지능학습 #K-AI성능 #AI주권 #디지털SOC #IT가이드 #모델로드 #토크나이저 #AI프롬프트 #기술블로그 

 

반응형